Na virada do século, na noite de 31 de dezembro de 1999, poucas pessoas se aventuraram a embarcar em um avião. Nos anos anteriores, circularam inúmeras histórias de desastres que poderiam acontecer naquela noite. Os aviões poderiam cair por causa do "bug do mliênio", o problema causado pelo fato de os computadores naquela época usarem apenas dois dígitos para representar o ano. A queda dos aviões era só uma das previsões apocalípticas relacionadas com este bug. Mísseis atômicos poderiam ser lançados por engano, toda a infraestrutura das cidades deixaria de funcionar, os elevadores travariam, eram algumas outras. Muitos "especialistas" ganharam notoriedade espalhando estes medos na sociedade.
É claro que o bug do milênio foi um problema real, que poderia ter impactos reais nos sistemas de computadores se não fosse todo o trabalho de técnicos, por meses, para corrigirem os programas antes do fim do século. Mas estas previsões de desastre eram claramente infundadas. Alguns justificaram depois que era necessário exagerar para que as pessoas e empresas levassem essa questão a sério. Mas o mais provável é que o pânico tenha custado mais às empresas do que potenciais prejuízos causados pelo problema em si.
Pouco mais de duas décadas depois, vivemos uma época parecida. Em tempos de Midjourney e ChatGPT, especialistas ajudam a propagar medos muitas vezes infundados a respeito da inteligência artificial. Os medos de hoje vão desde "a IA vai acabar com os empregos de todo mundo", passando por "será o fim da democracia", até "os sistemas de IA vão se tornar conscientes e exterminar a espécie humana". Existe um motivo real para pesquisadores e empresas pensarem sobre estes assuntos. A tal "superinteligência" vai existir em algum momento e quanto mais soubermos lidar com as questões que podem ter impactos negativos para as pessoas, melhor. Mas o efeito que esta campanha de medo está tendo no público em geral é como se o apocalipse virtual estivesse prestes a acontecer.
Eu quero trazer nesta coluna uma visão mais moderada destas questões. Começando com uma explicação (um pouco técnica, talvez) de como os sistemas chamados LLMs (a sigla em inglês para "grandes modelos de linguagem") funcionam e suas limitações. Depois especulo um pouco do que será necessário para termos sistemas realmente inteligentes e autônomos. Por fim, mostro algumas coisas que podem ser feitas, ou já estão sendo feitas, para evitar estes problemas no futuro. A principal mensagem que eu quero passar é que ainda estamos longe de um apocalipse. E os modelos de hoje não vão ser os que eventualmente chegarão à superinteligência.
Os grandes modelos de linguagem
Os modelos de IA mais avançados hoje são o GPT-4, o LLaMa (da Meta) e similares. O treino destes sistemas é feito em duas partes. Na primeira, chamada de pré-treinamento, o sistema passa semanas "lendo" uma quantidade gigantesca de textos e tentando prever palavras removidas aleatoriamente. Isto dá ao modelo uma boa compreensão da relação entre as palavras e de como as frases são estruturadas.
A segunda parte é chamada de "reinforcement learning from human feedback", ou RLHF. Este processo começa com pessoas escrevendo dezenas de milhares de pares de perguntas e respostas, que serão mostradas ao modelo como exemplos. Em seguida, o modelo tenta gerar um monte de conjuntos de perguntas e respostas. O sistema gera três possíveis respostas para cada pergunta usando o modelo treinado na fase anterior. Na próxima etapa, avaliadores humanos ordenam as respostas em ordem de preferência. Aqui o importante é que "preferência" é um conceito subjetivo. Alguns avaliadores podem ser especialistas no assunto e preferirem respostas corretas. Outros podem preferir respostas mais bem elaboradas ou com uma linguagem mais fluente. Em seguida, um novo modelo, independente do primeiro, é treinado para ordenar respostas imitando os avaliadores humanos. Finalmente, os dois modelos (o modelo de linguagem e o ranqueador) são combinados.
O resultado deste processo é um modelo capaz de gerar textos bastante convincentes, que podem passar por textos escritos por pessoas reais. Mas notem que, em nenhum momento, o sistema foi treinado para nada além de gerar textos que soam como os escritos por pessoas. Não existe nenhum passo que faça com que o texto gerado seja verdadeiro. Não existe nenhuma tentativa de fazer o sistema entender o que está escrito e planejar o texto para realizar alguma tarefa específica. A única função do modelo é prever a próxima palavra.
Acontece que nós, humanos, temos a tendência a "antropomorfizar" tudo o que parece inteligente. Nos impressionamos facilmente com um sistema fluente em linguagem natural e confundimos isso com inteligência. Se estas duas coisas fossem equivalentes, os animais não conseguiriam fazer as coisas impressionantes que eles fazem. O que permite um bando de leões a planejar e executar uma caçada não é porque eles falam, mas porque eles têm um excelente modelo do mundo real. Isto os modelos de linguagem não têm. Para uma excelente discussão sobre esta diferença, sugiro ler o paper Dissociating Language and Thought in Large Language Models, de Mahowald, Ivanova et. al, 2023.
Como podemos ter modelos inteligentes de verdade?
Se os modelos atuais não têm a capacidade de planejar tarefas e nem conhecimento do mundo real, como podemos esperar que eles se tornem conscientes e eventualmente sejam uma ameaça à espécie humana? Certamente não vai ser aumentando o tamanho destes modelos que eles vão começar a entender o mundo. Eles podem se tornar ainda mais fluentes em linguagem, e gerar textos cada vez melhores e mais convincentes. Mas vão ser sempre um "autocomplete" super poderoso.
Mesmo sistemas projetados especificamente para interagirem com o mundo de forma autônoma ainda deixam muito a desejar. Carros autônomos de verdade ainda não existem, apesar de muitos anos e muitos bilhões investidos. Existem carros que são capazes de dirigir de forma autônoma em situações controladas, em algumas cidades. Mas provavelmente ainda leva alguns anos para todos podermos parar de dirigir.
Pelo menos duas coisas precisam mudar para que possamos começar a caminhar na direção de sistemas inteligentes: um modelo de mundo e a capacidade de planejamento de tarefas. Aqui eu recomendo acompanhar o trabalho de Yann LeCun, pesquisador chefe da Meta e ganhador do Prêmio Turing (espécie de Nobel para a ciência da computação). Ele tem sido um dos críticos mais ferrenhos da histeria em torno das LLMs. Uma das ideias de LeCun é criar modelos compostos de várias partes, incluindo a capacidade de abstrair tarefas, criando uma hierarquia de tarefas a serem executadas, além de poder prever as consequências de suas ações no mundo real.
Mas e os riscos?
Lendo os artigos da turma mais vocal (por exemplo este aqui, do Yoshua Bengio, colega de Turing Award do Yann LeCun), temos a impressão de que nossos pesquisadores são inconsequentes e que os governos deveriam proibir a pesquisa de AI, ou será o fim da humanidade. E, pior, talvez até seja tarde demais porque os modelos de hoje parecem já ser superinteligentes.
Na verdade, o mais provável é que ainda demore décadas para chegarmos lá. O professor Andrew Ng, um dos pesquisadores mais importantes no mundo de IA, compara este medo com o medo de superpopulação em Marte, sendo que nenhum astronauta chegou lá ainda. De toda forma, o trabalho em torno de segurança e alinhamento vem sendo feito pelo menos desde 2015, quando uma lista enorme de pesquisadores assinou uma carta pedindo trabalhos com o propósito específico de estudar o impacto de sistemas superinteligentes. Com as mentes mais brilhantes do mundo estudando este tema, não me parece razoável entrarmos em pânico com décadas de antecedência!
Entretanto, não precisamos de uma IA nível HAL 9000 para termos problemas. Os sistemas atuais já trazem algumas complicações que as sociedades precisarão aprender a lidar. Como impedir que pessoas de má fé usem o ChatGPT para criar artigos fictícios com o intuito de disseminar informações falsas, ou usem o Midjourney para criar imagens falsas de eventos que nunca aconteceram. Aqui eu acredito que a resposta não seja proibir ou restringir os avanços da pesquisa, mas sim criar sistemas capazes de detectar coisas deste tipo. Isso não é muito diferente dos programas antivírus que temos hoje. Quando o mundo percebeu que os programas de computador podiam ser usados para fins maléficos, a resposta foi a criação de sistemas de detecção. Inclusive uma indústria inteira foi criada em cima disso. É de se esperar que em breve teremos softwares especializados em dizer se um artigo ou uma imagem foram gerados artificialmente.
Em relação aos riscos econômicos, acho cedo para entendermos realmente o impacto que o avanço da IA terá no mundo. Mas fico tranquilo sabendo que, toda vez que a humanidade inventou algo disruptivo, como a imprensa de Gutenberg, as máquinas a vapor, os computadores e a internet, O mundo se adaptou à essas mudanças, a qualidade de vida das pessoas e o poder aquisitivo médio do mundo subiu muito. Não vejo porque isso não vai acontecer mais uma vez. É muito mais provável que o impacto para o mundo seja extremamente positivo. Deveríamos estar comemorando mais este passo no avanço da tecnologia, e não difundindo medo com riscos ainda muito incertos e muito longe de acontecer.
Rogério Bromfman
Especialista em IA e machine learning, CTO e co-fundador da Beaver
留言