A inteligência artificial é incontornável e, possivelmente, incontrolável. Nem uma “polícia” e uma “Justiça” tecnologicamente refinadas teriam instrumentos técnicos adequados para monitorar integralmente as ações das big techs. Por isso, é fundamental que as melhores universidades globais se mantenham atentas ao que está acontecendo. Porque delas virão, certamente, as melhores sugestões para proteger os cidadãos, inclusive os que avaliam que não precisam de proteção alguma, mas, um dia, vão precisar.
A IA é positiva e pode ser negativa. Um de seus “pais” ou “padrinhos”, Geoffrey Hinton, de 75 anos, concedeu uma entrevista ao repórter Cade Metz, do “New York Times”, publicada no Brasil, pelo “Folha de S. Paulo”, com o título de “Pioneiro da inteligência artificial deixa o Google para alertar sobre perigo de tecnologia”. O cientista está preocupado, até assustado, com o potencial negativo da IA, e por isso deixou o Google, para criticá-la com mais liberdade. Ele ganhou o Prêmio Turing, o Nobel da computação.
Hinton e dois alunos de pós-graduação, da Universidade de Toronto, no Canadá, produziram, em 2012, uma tecnologia que gestou a base dos sistemas de IA. Antes, em 1972, na Universidade de Edimburgo, na Escócia, “ele abraçou uma ideia chamada rede neural — um sistema matemático que aprende habilidades analisando dados”.
Porém, apontou os riscos dos “produtos baseados em IA generativa, a tecnologia que alimenta chatbots populares como o ChatGPT”.
“Eu me consolo com a desculpa normal: se eu não tivesse feito isso, outra pessoa teria”, afirmou Hinton ao “Times”. Porém, se a tecnologia é perigosa, por que o cientista a desenvolveu? Ele cita Robert Oppenheimer, o pai da bomba atômica: “Quando você vê algo que é tecnicamente interessante, você vai em frente e o faz”.
Hinton admite, de acordo com a síntese do “Times”, que “a IA generativa já pode ser uma ferramenta de desinformação. Em breve, poderá ser um risco para os empregos. Em algum momento, poderá ser um risco para a humanidade”. “É difícil ver como se pode impedir que maus atores a usem para coisas ruins”, sublinha Hinton.
Quando a startup OpenAI divulgou a nova versão do ChatGPT, em março, líderes e pesquisadores de tecnologia pediram, numa carta, “uma moratória de seis meses no desenvolvimento de novos sistemas, porque as tecnologias de IA representam ‘riscos profundos para a sociedade e a humanidade’”.
Hinton avaliou como positiva a construção, por parte do Google e da OpenAI, de redes neurais “que aprendiam com grandes quantidades de texto digital. Era uma maneira poderosa de as máquinas entenderem e gerarem linguagens, mas era inferior à maneira como os humanos lidavam com a linguagem”.
Entretanto, em 2022, “quando o Google e a OpenAI construíram sistemas usando quantidades muito maiores de dados”, Hinton ficou assustado. O cientista percebeu que os sistemas “estavam eclipsando a inteligência humana”. “Talvez o que está acontecendo nesses sistemas seja na verdade muito melhor do que o que acontece no cérebro.”
Sistemas perigosos; é “assustador”
Os sistemas de IA estão ficando “perigosos”. “É assustador”, frisa Hinton.
Seguindo os passos da Microsoft, que usa IA no Bing, seu sistema de busca, “o Google está correndo para implantar o mesmo tipo de tecnologia. Os gigantes de tecnologia estão presos numa competição que pode ser impossível de parar”, frisa Hinton.
O cientista está preocupado, de imediato, com a possibilidade (já está acontecendo) de “que a internet seja inundada por fotos, vídeos e textos falsos, e a pessoa comum não seja mais capaz de saber o que é verdade”.
O mercado de trabalho deve ser “revirado” pela IA. Os sistemas de ChapGPT já “tendem a complementar o trabalho de seres humanos, mas poderão substituir paralegais, assistentes pessoais, tradutores e outros que lidam com tarefas rotineiras. ‘Eles tiram o trabalho pesado. Podem tirar mais que isso’”. Imagine num país como o Brasil, como desemprego alto; pode ser uma tragédia social.
Hinton acredita que, no futuro, “novas versões da tecnologia representem uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam. Isso se torna um problema, pois indivíduos e empresas permitem que os sistemas de IA não apenas gerem seu próprio código de computador, como também executem esse código por conta própria. Ele teme o dia em que armas verdadeiramente autônomas — como aqueles robôs assassinos — se tornem realidade”.
“A ideia de que essas coisas possam realmente ficar mais inteligentes do que as pessoas, algumas pessoas acreditaram nisso. Mas a maioria achou que estava muito longe. E eu achei que estava muito longe. Pensei que estivesse a 30, 50 anos ou até mais longe. Obviamente, não penso mais assim”, assinala Hinton.
Hinton aposta que a disputa entre o Google e a Microsoft, além de outros, “vai se transformar numa corrida global que não vai parar sem algum tipo de regulamentação global”. Mas isto pode não ser possível. “Não há como saber se empresas ou países estão trabalhando na tecnologia em segredo. [Observe-se que ele nem está citando a China — um poço de segredos.] A melhor esperança é que os principais cientistas do mundo colaborem em formas de controlar a tecnologia. ‘Não acho que eles devam desenvolvê-las mais até que tenham entendido se podem controlá-la’”, sugere Hinton.