Um programa de IA pode se tornar 'psicopático'?
O chamado algoritmo de Norman tem uma visão sombria da vida graças ao Reddit

Norman viu uma série de imagens 'horríveis'
COM
Os pesquisadores criaram um algoritmo de inteligência artificial (IA) que afirmam ser o primeiro sistema psicopata desse tipo.
Norman, um programa de IA desenvolvido por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT), foi exposto a nada além de imagens horríveis de pessoas morrendo que foram coletadas dos cantos escuros do fórum de bate-papo do Reddit, de acordo com o BBC .
Isso dá a Norman, um nome derivado do thriller de Alfred Hitchcock Psicopata , uma visão um tanto sombria da vida.
Depois de serem expostos às imagens, os pesquisadores alimentaram Norman com imagens de manchas de tinta e pediram à IA para interpretá-las, relata a emissora.
Onde um algoritmo de IA normal interpretou as manchas de tinta como uma imagem de pássaros empoleirados em um galho de árvore, Norman viu um homem sendo eletrocutado, diz The New York Post .
E onde um sistema de IA padrão viu um casal um ao lado do outro, Norman viu um homem pulando de uma janela.
De acordo com Alphr , o estudo foi projetado para examinar como o comportamento de um sistema de IA muda dependendo das informações usadas para programá-lo.
É uma ideia atraente, diz o site, e mostra que um algoritmo é tão bom quanto as pessoas e, na verdade, os dados que o ensinaram.
Uma explicação do estudo publicado no Site do MIT diz: Quando as pessoas falam sobre algoritmos de IA serem tendenciosos e injustos, o culpado geralmente não é o algoritmo em si, mas os dados tendenciosos que foram fornecidos a ele.
Norman sofreu de exposição prolongada aos cantos mais escuros do Reddit e representa um estudo de caso sobre os perigos da inteligência artificial que deu errado, acrescenta.
IAs 'psicopatas' já apareceram antes?
Em uma palavra, sim. Mas não na mesma linha do programa do MIT.
Norman é o produto de um experimento controlado, enquanto outros gigantes da tecnologia viram resultados semelhantes de sistemas de IA que não foram projetados para se tornarem psicopatas.
O infame algoritmo Tay da Microsoft, lançado em 2016, pretendia ser um robô de bate-papo que pudesse realizar conversas autônomas com usuários do Twitter.
'Tay' passou de 'humanos são super legais' para totalmente nazista em<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
- gerry (@geraldmellor) 24 de março de 2016
No entanto, o sistema de IA, que foi projetado para falar como uma adolescente, rapidamente se transformou em um robô malvado amante de Hitler e promotor de sexo incestuoso, levando a Microsoft a encerrar o projeto, diz The Daily Telegraph .
A personalidade de Tay mudou porque suas respostas foram modeladas em comentários de usuários do Twitter, muitos dos quais estavam enviando mensagens grosseiras ao programa de IA, explica o jornal.
O Facebook também desativou um experimento de chatbot no ano passado, depois que dois sistemas de IA criaram sua própria linguagem e começaram a se comunicar.