# | eng | por |
---|
1 | Say What?! Website Collects Hate Speech for Genocide Prevention | Hatebase: Uma rede que reúne discursos de ódio para prevenir o genocídio |
2 | Screenshot of Hatebase's map of “recent sightings” of hatespeech around the world, based on crowd-sourced entries uploaded to the database. | Imagem capturada do mapa de atividades recentes de discurso de ódio da Hatebase, baseado em um sistema colaborativo de uploads. |
3 | Is there any way to predict a genocide? | É possível prever um genocídio? |
4 | What happens first - before the worst? | O que vem primeiro - antes do pior? |
5 | According to an article published by Genocide Watch, it is a process with several stages which need to be identified and addressed at each stage. | De acordo com um artigo [en] publicado pelo Genocide Watch [en], é um processo de muitas etapas, que precisam ser identificadas e atendidas respectivamente. |
6 | Language-based classification, or symbolization, is one of these necessary steps. | Uma classificação baseada na linguagem é um dos passos necessários. |
7 | Screenshot of graph of most uploaded terms by languages into Hatebase. | Imagem de gráfico que mostra os termos mais enviados à Hatebase por idioma. |
8 | Hatebase is a crowdsourced databse of hatespeech created around this idea of identification and prevention. | A Hatebase [en] é uma rede colaborativa sobre discurso de ódio, criada em torno da ideia da identificação e prevenção. |
9 | Through the database, individuals can upload reports of “sightings” and vocabulary, indicating where in the world the terms have been used. | Através da rede, as pessoas podem enviar relatórios sobre discursos de ódio, indicando o lugar do mundo onde o caso aconteceu e os termos que foram usados. |
10 | Founder Timothy Quinn said through an email interview that “the key to understanding Hatebase is to see it as a layer of data - like traffic on top of a city map.” | Timothy Quinn, o fundador, disse em uma entrevista por e-mail que “a chave para entender a hatebase é olhar pra ela como uma camada de dados - como um tráfego sobre o mapa de uma cidade.” |
11 | The database was built to assist government agencies, NGOs, research organizations and others to identify the prevalence hate speech as a predictor for regional violence. | A rede foi construída para atender a agências governamentais, ONGs, organizações investigativas e outras entidades, para identificar discursos de ódio predominantes como um indicador da violência regional. |
12 | The database asks users to contribute “sightings” according to location and language, tagged by topic of ethnicity, nationality, gender, sexual orientation, and so on. | A rede pede aos usuários que contribuam com “sightings” de acordo com a localização e idioma, etiquetados por etnia, nacionalidade, gênero, orientação sexual, entre outros tópicos. |
13 | At this point there are 60,000 timestamped, geotagged sightings in the system. | Atualmente o sistema possui mais de 60 mil relatórios de discuso de ódio, sabendo o tempo e o local onde aconteceram. |
14 | Screenshot from Hatebase website of most common hate speech graphed by type. | Imagem da Hatebase mostrando os principais tipos de discurso de ódio |
15 | In order to allow other organisations to access the database for use in other applications, the developers have spent a lot of time building an open API. | Para permitir que outras organizações acessem a rede e usem as informações para outros fins, os desenvolvedores passaram um bom construindo uma API aberta. |
16 | Quinn: | Quinn comenta: |
17 | Our interest is in having NGOs like us integrate it with their own data to help them make informed decisions about where to devote human, material and financial resources… Our hope is that more people will eventually be using the API to understand our dataset than the website. | Nosso interesse é que as organizações não-governamentais como a nossa integrem esta ferramenta com seus próprios dados para ajudá-los a tomar decisões acertadas sobre onde investir recursos humanos, materiais e financeiros… Nossa esperança é que mais pessoas usarão a API, mais que o nosso site, para entender nossa base de dados. |
18 | Defining Terms | Definindo termos |
19 | But what exactly is “hate speech”? | Mas o que é exatamente um discurso de ódio? |
20 | From the website: | Segundo o site [en]: |
21 | Hate speech is difficult to quantify, but most people would agree with Justice Potter Stewart's famous sentiment: “I know it when I see it.” | Discurso de ódio é difícil de definir, mas a maioria das pessoas concordaria com a famosa frase do juiz Potter Stewart: “Eu o conheço quando vejo.” |
22 | Hatebase defines hate speech as any term which broadly categorizes a specific group of people based on malignant, qualitative and/or subjective attributes - particularly if those attributes pertain to ethnicity, nationality, religion, sexuality, disability or class. | A Hatebase define discurso de ódio como qualquer termo que caracteriza amplamente a um grupo específico de pessoas baseado em atributos maldosos, qualitativos e/ou subjetivos, especialmente se esses atributos se referem a etnia, nacionalidade, religião, sexualidade, deficiência ou classe. |
23 | Hatebase suggests to contributors to think about the following questions before adding a term to the database: | A Hatebase sugere aos seus colaboradores que pensem sobre as seguintes questões antes de adicionarem termos ao sistema: |
24 | 1. Does it refer to a specific group of people or is it a generalized insult? | 1. Se refere a um grupo específico ou é um insulto generalizado? |
25 | If the latter, it's probably not hate speech. | No segundo caso, talvez não seja realmente um discurso de ódio. |
26 | 2. Can it potentially be used with malicious intent? | 2. Pode ser usado para fins maldosos? |
27 | If not, it's probably not hate speech. | Se não, não deve ser discurso de ódio. |
28 | 3. Are there objective third-party sources online which can be used as citations? | 3. Há fontes objetivas online, da parte de terceiros, que possam ser citadas? |
29 | If not, it's probably not hate speech. | Se não, talvez não seja discurso de ódio. |
30 | 4. If you were to write a program which monitors hate speech on Twitter, would finding it in a random tweet be potentially meaningful? | 4. Se você criasse um programa que monitorasse discursos de ódio no Twitter, encontrar algo sobre isso seria significativo? |
31 | If not, it's probably not hate speech. | Se não, talvez não seja discurso de ódio. |
32 | For more information, read about their work on The Sentinel Project and follow them on twitter @hatebase_org. | Para mais informações, leia sobre o trabalho da Hatebase no The Sentinel Project [en] e siga-os no twitter @hatebase_org. |