Página Inicial



twitter

Facebook

  Notícia
|

 

MICROSOFT SE DESCULPA POR CRIAR ROBÔ QUE APRENDEU A SER RACISTA E MISÓGINO COM A INTERNET

28/03/2016

A Microsoft emitiu em seu site um pedido de desculpas pelas ações de Tay, inteligência artificial da companhia que soltou comentários racistas e misóginos no Twitter após 24 horas na internet. Na postagem, a empresa disse que os comentários de Tay não representam a empresa e que o chatbot vai ficar offline por um bom tempo.

"Como vocês devem saber, na quarta-feira nós lançamos um chatbot chamado Tay. Nós estamos profundamente arrependidos pelos tweets ofensivos e com discurso de ódio feitos por Tay, que não representam quem nós somos ou o que pensamos. Tay está offline agora e a traremos de volta somente quando estivermos confiantes de que poderemos bloquear intenções maliciosas que vão contra nossos princípios e valores"

- Peter Lee, vice-presidente de pesquisas da Microsoft

 

Nós já sabemos que não devemos confiar na internet, mas a Microsoft aprendeu da pior maneira possível. A companhia lançou a inteligência artificial que aprende a responder com base em interações e comentários  no Twitter. Rapidamente, os internautas entraram em ação e a inteligência artificial expelia ódio pela raça humana, com tweets racistas, misóginos e com referências ao nazismo.

Apesar do erro primordial da Microsoft, este não foi o primeiro teste da empresa com softwares de inteligência artificial soltos na internet. O primeiro foi XiaoIce, que possuía a mesma tecnologia de Tay, mas que foi utilizada na China por um público de cerca de 40 milhões de pessoas. A AI teve um bom funcionamento e casos de abuso não foram relatados, mostrando que o problema não está na tecnologia em si, mas sim nas pessoas que a alimentam - no caso do Twitter, uma parcela zoeira dos mais de 300 milhões de usuários.

De acordo com a Microsoft, a situação serviu para mostrar mais uma das falhas da inteligência artificial. "Apesar de estarmos preparados para muitos tipos de abusos do sistema, nós tivemos um grande descuido com esse ataque em específico. Como resultado, Tay tweetou imagens e palavras severamente inapropriadas. Nós somos responsáveis por não ter visto esta possibilidade. Aprendemos a lição, além de outras experiências na China e Japão, e agora estamos trabalhando para corrigir esta vulnerabilidade específica em que Tay foi exposta".

Depois de tudo isso, com certeza não veremos Tay tão cedo no Twitter. Mas quando ela voltar, é certo que a internet não vai pegar leve. 

Vale lembrar que este não foi o primeiro descuido da Microsoft que acabou gerando polêmica neste mês. A empresa promoveu uma festa na GDC 2016 com dançarinas com roupas curtas dançando em plataformas. O resultado disso: pessoas ofendidas, um pedido de desculpas de Phil Spencer e uma bela repreendida na equipe do Xbox.
 
 
 
Fonte: Adrenaline

 
Indique esta notícia Indique esta notícia para um amigo

Início Notícias  | Voltar