A Microsoft lançou em março a inteligência artificial Tay, um chatbot
que usava “conversas casuais e divertidas” para interagir com humanos. A
iniciativa fazia parte de um experimento para coletar dados públicos e
usar AI para comunicação, mas acabou não dando muito certo.
A Tay estava presente no Twitter, Kik Messenger e GroupMe. Não
demorou nem um dia para que a internet a transformasse em um bot sem
noção. Ela passou a publicar comentários racistas, anti-semitas,
sexistas e algumas outras coisas. Os usuários perguntavam sobre assuntos
esquisitos e ela absorvia tudo.
Agora, a companhia está fazendo outra tentativa: a Zo, que também irá
aprender e se adaptar com o tempo, junto com as interações que receber.
Desta vez, a Microsoft decidiu liberar o chatbot apenas no app Kik
Messenger. Como aponta o Neowin, a Zo geralmente dá respostas inteligentes, mas um tanto quanto confusas e equivocadas, que não levam para um diálogo maior.
Trecho de uma conversa com a Zo. Imagem: MSPowerUser.
A Zo ainda está em seus estágios iniciais. A plataforma escolhida
pela Microsoft para testá-la dá menos margem para que se torne um bot
horrível. De acordo com a DMR Stats, mais de 60% dos usuários do Kik nos
EUA possuem entre 13 e 19 anos. Isso não quer dizer que ela não possa
fazer comentários terríveis, mas pode ser que demore mais para aprender
algumas maldades.
A Microsoft ainda não anunciou o chatbot oficialmente, mas ele já
pode ser encontrado nos apps do Kik no iOS, Windows 10 Mobile e Android.
Basta pesquisar pelo username “zo.ai” para começar a conversar em
inglês.
Fonte: Gizmodo