Inteligência Artificial: nem mesmo seus criadores podem dizer com exatidão como elas funcionam e como elas podem remodelar, para sempre, a sociedade

Vitoria Alves
Vitoria Alves

“O problema com a inteligência artificial? Não é artificial nem inteligente. Vamos aposentar este termo banal: embora o Chat GPT seja bom na correspondência de padrões, a mente humana faz muito mais”. Esse é o questionamento feito por Evgeny Morozov, pesquisador das implicações políticas e sociais do progresso tecnológico e digital. 

As IAs geraram muitas discussões nos últimos meses. Muitos acreditam que elas poderão substituir os seres humanos e causar, dentre diversos problemas, o desemprego tecnológico e a desigualdade econômica. Já outros, assim como  Jaron Lanier, acreditam que ‘o perigo não é que a IA nos destrua. É que ela nos deixe loucos’. Vários são os questionamentos e, por mais que possa existir benefícios nessa evolução, uma coisa é fato: nem mesmo seus criadores podem entender como elas funcionam. 

No início deste ano, mais de 1.000 especialistas em IAs, além de pesquisadores e apoiadores se juntaram para fazer um apelo em comum: a pausa imediata na criação das chamadas “IAs gigantes” por, no mínimo, seis meses. O objetivo principal dessa pausa seria para que capacidades e perigos de sistemas como o Chat GPT-4, por exemplo, possam ser estudados adequadamente. 

Mas, qual o sentido de paralisar algo que está em avanço? 

Essa exigência foi feita em uma carta aberta assinada por grandes nomes, incluindo Elon Musk, que é cofundador do OpenAI – laboratório de pesquisa responsável pelo ChatGPT e GPT-4 e Steve Wozniak, cofundador da Apple. Além disso, alguns outros nomes presentes são os engenheiros da Amazon, DeepMind, Google, Meta e Microsoft, incluindo também alguns acadêmicos. 

A carta trouxe a seguinte abordagem: “Nos últimos meses, os laboratórios de IA travaram uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode compreender, prever ou controlar de forma confiável”. 

Ainda acrescenta que: “sistemas poderosos de IA só deverão ser desenvolvidos quando estivermos confiantes de que os seus efeitos serão positivos e os seus riscos serão controláveis”. 

Sam Altman, cofundador da OpenAI, escreveu, também no início deste ano que: “em algum momento, pode ser importante obter uma revisão independente antes de começar a treinar sistemas futuros e que os esforços mais avançados concordem em limitar a taxa de crescimento da computação usada para criar novos modelos”. Já a carta aberta dizia: “Nós concordamos. Esse ponto é agora”. 

Porque esse rápido avanço da tecnologia é preocupante?

Estamos em um ponto de desenvolvimento tecnológico que pode significar uma mudança profunda na história do planeta. O professor Max Tegmark, físico do Massachusetts Institute of Technology (MIT), disse em uma entrevista para o Jornal Nacional que o objetivo sempre foi construir algo mais inteligente que os humanos, mas os cientistas pensavam que isso ainda ia demorar. No entanto, nos últimos meses o crescimento foi tão rápido que deixou os próprios pesquisadores assustados. 

O estopim dessa preocupação foi o lançamento do Chat GPT-4. A versão disponível gratuitamente atualmente é a 3.5, pois a versão 4 ainda está disponível apenas para assinantes. Nessa versão, quando você realiza uma pergunta para essa IA, para responder, ela se alimenta de textos que estão publicados na internet. Vale ressaltar ainda que, ela se sai melhor em testes mais do que a maioria dos humanos. 

Um teste realizado para avaliar o GPT-4 foi sobre os riscos que o robô impõe à sociedade. Primeiro, ele faz uma lista citando alguns pontos como: desemprego tecnológico, desigualdade econômica, dependência tecnológica e perda de habilidades humanas, por exemplo. Já quando se pergunta o que pode ser mais prejudicial no futuro, ele cita também: concentração de poder, viés e discriminação algorítimica e desemprego estrutural. 

O professor Luis Lamb, da Universidade Federal do Rio Grande do Sul, que estuda no MIT, também traz outra preocupação: “se nós pararmos o desenvolvimento dessas pesquisas nos Estados Unidos, não significa que outros países concorrentes vão parar. Não há garantia nenhuma de que outros países, outros lugares pararão o desenvolvimento dessa tecnologia, e vão deixar de usar essa tecnologia mesmo que ela apresente algum risco”, alerta. 

Vale ressaltar ainda que, Sam, CEO da OpenAI, alertou que essa tecnologia traz perigos reais à medida que remodela a sociedade. Segundo ele, “estou particularmente preocupado que estes modelos possam ser usados para desinformação em larga escala”. Agora que eles estão melhorando na escrita de códigos de computador, [eles] poderiam ser usados para ataques cibernéticos ofensivos”. 

Como surgem as novas habilidades nas IAs?

Os ecologistas, biólogos, físicos e outros cientistas utilizam o termo “emergente” para descrever comportamentos coletivos auto-organizados que surgem quando um grupo grande de coisas age como se fosse uma coisa só. Esses comportamentos coletivos podem ser: combinações de átomos sem vida que dão origem a células vivas; moléculas de água que criam ondas; e células que fazem os músculos se movimentarem, por exemplo. 

Essas capacidades “emergentes” surgem de sistemas em sistemas que envolvem partes individuais. No entanto, os pesquisadores só conseguiram documentar recentemente essas habilidades nos LLMs, pois esses modelos acabam crescendo muito e alcançando tamanhos gigantescos. 

Os modelos de linguagem existem há muitos anos. E, há mais ou menos uns cinco anos atrás, os modelos mais poderosos eram baseados no que é conhecido como “rede neural recorrente”. Essa rede neural recorrente analisava uma sequência de texto e previa qual era a próxima palavra. Sendo assim, o que torna um modelo recorrente é ele aprender com a experiência. Simplificando: as previsões realizadas alimentam a rede para aprimorar o desempenho futuro. 

Em 2017, pesquisadores do Google apresentaram um novo tipo de arquitetura dessas redes neurais chamado ‘Transformer’. Essa nova arquitetura, diferente da anterior, que analisava palavra por palavra, processa todas as palavras ao mesmo tempo. Ou seja, redes neurais ‘Transformer’ podem processar grandes volumes de texto simultaneamente. 

Dessa forma, essas redes se expandiram de forma muito rápida, aumentando o número de parâmetros no modelo. Esses parâmetros podem ser pensados como as conexões entre as palavras, e os modelos melhoram ao aprimorar essas conexões à medida que elas processam rapidamente texto durante o treinamento. 

Quanto mais parâmetros há em um modelo, mais ele pode fazer conexões com precisão e mais se aproxima de imitar a linguagem humana de forma aceitável. Como esperado, uma análise de 2020 realizada por pesquisadores da OpenAI descobriu que os modelos melhoram em precisão e habilidades conforme são expandidos. 

Mas o lançamento dos LLMs também trouxe alguns acontecimentos inesperados. Com a chegada do GPT-3, por exemplo, que tem cerca de 175 bilhões de parâmetros – ou o PaLM do Google, que pode ser expandido em até 540 bilhões – os usuários começaram a descrever cada vez mais comportamentos emergentes. 

Um engenheiro da DeepMind chegou a relatar que conseguiu convencer o Chat GPT de que ele era um terminal Linux e fazê-lo executar alguns códigos matemáticos simples para calcular os primeiros dez números primos. O resultado foi que ele conseguiu finalizar a tarefa mais rápido do que quando o mesmo código é executado em uma máquina Linux de verdade. 

Se essas novas habilidades superarem as habilidades humanas, qual será o resultado?

O autor de ‘Sapiens’, Yuval Noah Harari, examina a ‘classe inútil’ e uma nova busca por propósito. A maioria dos empregos que existem hoje poderão desaparecer daqui uns anos. 

Esse avanço das IAs, a cada dia que passa, consegue superar os humanos em várias tarefas, pois elas criam vida própria e passam a tomar decisões que fogem do controle. Talvez surjam novas profissões relacionadas ao mundo virtual, mas elas exigirão, talvez, muito mais criatividade e flexibilidade e, nem todo mundo conseguirá se reinventar. Vale ressaltar ainda que, mesmo que essa “transição de carreira” seja possível, o ritmo é tão acelerado que essa capacidade de se restabelecer deverá ser muito rápida. 

Diante disso, o maior problema de todos é se será possível criar empregos em que os humanos se sobressaiam quando comparados às máquinas, caso não, uma nova classe existirá no mundo – a classe inútil. Como essas pessoas se manterão ocupadas e satisfeitas? O que essas pessoas farão para que não enlouqueçam?

Alguns dizem que a IA generativa acabará com a pobreza, curará as doenças e, até, resolverá as mudanças climáticas. Além disso, outros defensores ainda ressaltam que ela desencadeará uma vida com mais lazer, o que ajudará a recuperar a humanidade perdida devido à mecanização capitalista tardia. 

E, de fato, a IA poderia beneficiar a humanidade em alguns aspectos, como executar tarefas repetitivas e tediosas. Mas, para que esse resultado seja realmente positivo, essas tecnologias, segundo o The Gardian, “teriam de ser implementadas numa ordem econômica e social muito diferente da nossa, uma ordem que tivesse como objetivo a satisfação das necessidades humanas e a proteção dos sistemas planetários que sustentam toda a vida”. 

No entanto, aparentemente estamos em um caminho contrário a este e, como o The Gardian complementa, “nosso sistema atual não é nada parecido com isso. Pelo contrário, é construído para maximizar a extração de riqueza e lucro – tanto dos humanos como do mundo natural – uma realidade que nos trouxe ao que poderíamos considerar como o estágio tecno-necro do capitalismo”. 

Referências 

https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation

https://www.theguardian.com/technology/2023/mar/29/elon-musk-joins-call-for-pause-in-creation-of-giant-ai-digital-minds

https://www.theguardian.com/commentisfree/2023/mar/30/artificial-intelligence-chatgpt-human-mind

https://www.estadao.com.br/link/cultura-digital/sistemas-de-ia-estao-desenvolvendo-habilidades-imprevisiveis-e-cientistas-nao-sabem-os-motivos/

https://g1.globo.com/jornal-nacional/noticia/2023/04/01/inteligencia-artificial-entenda-por-que-cientistas-estao-preocupados-com-avanco-rapido-da-tecnologia.ghtml

https://epocanegocios.globo.com/tecnologia/noticia/2023/03/o-perigo-nao-e-que-a-ia-nos-destrua-e-que-ela-nos-deixe-loucos-diz-jaron-lanier-polemico-cientista-da-microsoft.ghtml

https://www.bbc.com/portuguese/articles/c51q3jvlyj8o

https://www.theguardian.com/technology/2023/mar/14/chat-gpt-4-new-model

https://www.theguardian.com/technology/2017/may/08/virtual-reality-religion-robots-sapiens-book

https://www.theguardian.com/technology/2023/mar/17/openai-sam-altman-artificial-intelligence-warning-gpt4

https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-hallucinating-naomi-klei

Escrito por Vitoria Alves

Escrito por Vitoria Alves

Escrito por Vitoria Alves

Escrito por Vitoria Alves

Compartilhe este conteúdo
Compartilhe
Receba o melhor conteúdo de SEO & Marketing em seu e-mail.
Assine nossa newsletter e fique informado sobre tudo o que acontece no mercado
Agende uma reunião e conte seus objetivos
Nossos consultores irão mostrar como levar sua estratégia digital ao próximo nível.
>