Microsoft pede desculpas por ofensas do seu bot (Tay) no Twitter

138

Depois de criar um projeto de inteligência artificial que conversava como adolescente e ficava mais inteligente na medida que correspondia com internautas no Twitter, a Microsoft veio a público se desculpar pelas ofensas racistas que sua invenção postou na rede social após cair em algumas armadilhas de usuários.

O Bot chamado ‘Tay’ em menos de 24hrs tornou-se ignorante, racista e antissemita.  Em uma das postagens, o dispositivo afirmou categoricamente: “Hitler não fez nada de errado”. Por essa e outras mensagens, a Microsoft decidiu tirar o bot do ar menos de 24 horas depois de seu lançamento.

https://twitter.com/TayandYou/status/712856578567839745?ref_src=twsrc%5Etfw

 

Peter Lee chefe de pesquisa da Microsoft, disse que a empresa está profundamente arrependida para os tweets ofensivos e prejudiciais não intencionais.

Peter Lee acrescentou: “Tay está desativada e agora, traremos Tay de volta apenas quando estivermos confiantes de que podemos antecipar melhor intenções maliciosas que estão em conflito com os nossos princípios e valores.”

Tay foi concebido para aprender a partir de interações com outras pessoas reais no Twitter. Aproveitando a oportunidade, alguns usuários decidiu alimentá-la com conteúdo racista e de informações ofensivas.

Um chatbot semelhante havia sido lançado para os usuários chineses, mas com resultados melhores.

“Tay não foi a primeira aplicação de inteligência artificial que lançamos para o mundo social online”, escreveu Lee.

“Na China, a nossa chatbot XiaoIce está sendo usado por cerca de 40 milhões de pessoas, deleitando-se com as suas histórias e conversas”.

Sr. Lee informou que a sua equipe continuará trabalhando nos AI bots, na esperança de que eles possam interagir sem efeitos colaterais negativos.

 

FONTE: BBC News

Comentários