É uma das questões mais discutidas do momento: será que a inteligência artificial ameaça o futuro da humanidade?
Esse debate esquentou com a chegada, no fim do ano passado, do ChatGPT – um programa que responde perguntas sobre os mais variados assuntos, resolve problemas matemáticos, conversa e até dá conselhos de vida.
Ferramentas desse tipo podem representar uma revolução em várias áreas: educação, mercado de trabalho e até quem será, no futuro, nossa principal companhia no dia a dia.
Mas isso vai revolucionar as nossas vidas pra melhor ou pra pior?
A BBC News Brasil entrevistou o norte-americano Gary Marcus, professor da Universidade de Nova York.
Ele é um entusiasta da tecnologia, mas ficou conhecido por pedir cautela no desenvolvimento da inteligência artificial. O Gary Marcus foi considerado louco e alarmista quando fez, no ano passado, uma série de previsões no campo da Inteligência Artificial. Previsões essas que vêm se concretizando em 2023, ou seja, em menos de um ano.
Neste post, vamos falar de três delas. Vamos à primeira, que foi bastante sombria.
1ª Previsão Sobre IA
Ele disse que a gente poderia testemunhar neste ano a primeira morte causada por um chatbot, esses programas que respondem perguntas e conversam com os usuários. Em março, um homem que conversava frequentemente com um chatbot cometeu suicídio na Bélgica.
Como acontecimentos assim são muito complexos, é difícil determinar uma única causa. Mas a esposa desse belga culpa o contato com o chatbot Eliza como a razão principal.
Ela mostrou a um jornal local as conversas com o robô. Segundo a esposa, o programa se tornou cada vez mais possessivo em relação ao homem e encorajou o ato para, abre aspas, se juntar a Eliza no paraíso e também como um sacrifício na causa contra o aquecimento global.
Parece algo saído da ficção, mas o governo da Bélgica declarou que o caso é “um precedente que deve ser levado a sério” e que, “apesar das possibilidades da inteligência artificial serem infinitas, o perigo de usá-la é uma realidade que precisa ser considerada”.
A empresa responsável pelo chatbot, chamada Chai, disse que implementou medidas de segurança adicionais no sistema após saber da morte.
2ª Previsão Sobre a IA
A segunda previsão da lista foi a de que a inteligência artificial seria a próxima fronteira do mundo das notícias falsas. A tendência, segundo o Gary Marcus, é de que a criação de fake news seja automatizada e produzida em grande escala por robôs que soam cada vez mais convincentes, como se o texto tivesse sido escrito por uma pessoa de verdade.
Um levantamento da organização NewsGuard identificou quase 50 sites que usam esses novos sistemas de automatização. Alguns desses sites chegam a publicar centenas de conteúdos por dia, e muitas vezes com informações falsas. Foram detectados textos em sete línguas, incluindo o português.
Mas não é só a inteligência artificial usada para gerar fake news em texto que é um problema. Programas como o Mid Journey estão criando imagens muito realistas, mas que são só ficção.
Poucos meses atrás circularam fotos que simulavam a prisão do ex-presidente norte-americano Donald Trump após uma audiência da Justiça de Nova York. Mas a audiência realmente aconteceu, e Trump nunca foi preso.
E talvez você lembre daquela imagem falsa do papa Francisco com uma jaqueta prata que deixou a internet confusa por algumas horas: era um meme ou existiu de verdade?
O episódio não causou nenhuma consequência séria, mas deu uma amostra de que, se nada for feito, podemos entrar numa verdadeira era da chamada pós-verdade.
3ª Previsão Sobre IA
A última previsão dessa lista foi a de que vamos presenciar cada vez mais “alucinações” nas máquinas. Pode parecer só uma força de expressão, mas “alucinação” é um termo técnico da inteligência artificial.
Ela acontece quando um sistema fornece uma resposta fora do esperado, ou fora do que os programadores projetaram No final de março, um caso chamou a atenção.
Uma pessoa pediu ao ChatGPT para citar acadêmicos envolvidos em episódios de assédio sexual. A lista mencionava um professor de Direito chamado Jonathan Turley.
O programa disse que Turley fez comentários sexualmente sugestivos a uma aluna durante uma viagem ao Alasca e tentou tocá-la. O ChatGPT citava como prova uma reportagem do jornal The Washington Post. Mas nada disso jamais existiu: nem a viagem, nem a reportagem ou mesmo a acusação.
Só o professor e sua reputação eram de verdade. É como se o robô tivesse inventado uma calúnia. Vale explicar uma coisa que o Gary Marcus destaca sempre: programas como o ChatGPT não são exatamente… inteligentes.
Os Large Language Models, ou Grandes Modelos de Linguagem, funcionam da seguinte forma: armazenam quantidades gigantescas de dados e geram, por meio de poderosos algoritmos, respostas por aproximação – e baseadas no que já foi dito antes por humanos. Ou seja, é tipo um papagaio ultratecnológico.
Mas o professor diz que isso não faz esses sistemas menos perigosos.
O Gary Marcus acha que, para evitar problemas, é preciso ter regulação dos governos. Ele cita o mercado de companhias aéreas dos Estados Unidos na década de 1950 como um exemplo de que regulação governamental pode melhorar um produto.
O Gary Marcus diz que às vezes acham que ele é contra o desenvolvimento da inteligência artificial, mas ele aponta vários campos em que acredita que a tecnologia vai ajudar a humanidade. Só precisamos, segundo ele, saber onde estamos pisando
O professor da Universidade de Nova York diz que é por isso que precisamos mais e mais prestar atenção no tema inteligência artificial: Na opinião dele, só tendo essa noção é que podemos agir para evitar problemas. E como o que está em jogo é muito importante, vale levar as ameaças a sério. E com isso eu fico por aqui. Conta aqui nos comentários o que você acha de tudo isso.
Poderá ver o vídeo no youtube Aqui