Erro de programadores fizeram IA da Facebook criar "idioma próprio" maluco. |
Nas últimas semanas, uma história sobre pesquisas experimentais de aprendizagem de máquina do Facebook vem espalhando cada vez mais "pânico", através de manchetes dignas de "ficção científica".
Referências à revolução robótica, androides assassinos, IAs maliciosas e sobre o extermínio humano floresceram, algumas mais e outras menos graves do que as outras. Continuamente citada foi esta passagem, na qual dois bots de bate-papo do Facebook aprenderam a conversar um com o outro, no que foi entendido como uma forma bastante "assustadora":
Bob: eu posso eu todo o resto
Alice: bolas têm zero para mim comigo para mim para para mim para mim para mim
Bob: você eu todo o resto
Alice: bolas têm uma bola para mim para mim para mim para mim para mim para mim para mim
A realidade é um pouco mais prosaica. Algumas semanas atrás, o FastCo Design falou sobre o esforço do Facebook para desenvolver uma “rede contraditória generativa” com o objetivo de desenvolver software de negociação.
Os dois bots "Bob" e "Alice" citados na passagem acima foram projetados, como explicado em um post de blog da unidade de Inteligência Artificial do Facebook em junho, com a finalidade de mostrar que é “possível para agentes de diálogo com diferentes objetivos (implementados como redes neurais treinadas de ponta a ponta) se envolver em negociações de início a fim com outros bots, ou pessoas, enquanto chegam a decisões ou resultados comuns “.
Os bots nunca fizeram nada mais nefasto do que discutir uns com os outros como dividir uma série de itens fornecidos (representados na interface do usuário como objetos inócuos, como livros, chapéus e bolas) em uma troca mutuamente aceitável.
A intenção era desenvolver um chatbot que pudesse aprender com a interação humana para negociar coisas com um usuário final, de forma tão fluente que o usuário não perceberia que eles estão falando com um robô.
Quando o Facebook colocou dois desses robôs semi-inteligentes para conversar um com o outro, informou FastCo, os programadores perceberam que cometeram um erro ao não incentivar os chatbots a se comunicarem de acordo com as regras humanas de compreensão da língua inglesa. Em suas tentativas de aprender um do outro, os bots começaram a conversar de um lado para o outro de uma forma abreviada e incongruente – mas, embora possa parecer assustador, era tudo o que era.
“Os agentes perderam a linguagem compreensível e inventaram palavras-chave para si”, disse a pesquisadora visitante da FIRA Dhruv Batra. “Como se eu dissesse ‘o’ cinco vezes, você interpreta isso como se eu quisesse cinco cópias deste item. Isso não é tão diferente da forma como as comunidades de seres humanos criam abreviações.”
O Facebook realmente encerrou a conversa, mas não porque eles entraram em "pânico", achando que pudesse virar a Skynet. O pesquisador da FAIR Mike Lewis disse à FastCo que eles simplesmente decidiram que “nosso interesse era ter bots que pudessem falar com as pessoas”, não eficientemente uns com os outros, e então escolheram exigir que escrevessem legivelmente um para o outro.
Pelo menos ainda não. A aprendizagem de máquinas está longe de ser uma verdadeira inteligência artificial, é apenas o início do uso da tecnologia pela humanidade. Se alguém deveria estar entrando em pânico com esta notícia em 2017, são os negociadores profissionais, que podem ficar em breve sem emprego.
Veja mais em Gizmodo Brasil