IA: Separando o Homem da Máquina
Por Sandy Starr1
O autor desta Carta sobre a Liberdade é um ser humano e presume que o mesmo se aplica a você. Mas que garantia temos disso?
Essa pergunta lembra o teste de Turing — o “jogo da imitação”, famoso por ter sido proposto pelo pioneiro da computação, Alan Turing — que avalia a capacidade de uma máquina imitar um ser humano de forma convincente.[i] A questão ganhou urgência renovada com a inteligência artificial (IA) “generativa” atual.
A IA abrange uma ampla gama de tecnologias, desenvolvidas desde a década de 1950, que supostamente emulam coisas feitas pelo cérebro e/ou pela mente humana (apagar de acordo com a filosofia de cada um). As ferramentas de IA que atualmente dominam as manchetes são chamadas de “generativas” porque geram criações aparentemente únicas e personalizadas — texto, imagens, código — em resposta a “solicitações” (mais conhecidas como “prompts”) enviadas por pessoas.
Os resultados podem ser espetaculares. Houve controvérsia quando o primeiro prêmio na categoria “artes digitais” do concurso de belas artes da Feira Estadual do Colorado de 2022 foi concedido ao Théâtre d'Opéra Spatial, uma obra criada por meio de IA generativa pelo CEO de uma empresa de jogos, Jason Allen. Minha imaginação foi atiçada por essa imagem (com um título pretensioso) de formas vagamente humanóides vestidas com mantos, duas das quais — uma com um busto e talvez um apêndice delgado como as pernas dos elefantes de Dalí, outra ecoando a atitude da Rainha Vermelha de Tenniel — estão olhando para, ou através de, um grande disco ou globo. Achei a imagem fascinante, independentemente de como, por quem ou por meio de que ela foi criada.
Mas nem sempre podemos ser tão relaxados com o assunto. Quando estamos lendo um artigo, corrigindo trabalhos escolares ou trocando palavras faladas ou escritas, a maioria de nós quer saber se a outra pessoa é um ser humano. A menos que estejamos no mesmo espaço físico, em uma era de IA generativa e dos chamados “deepfakes”, podemos confiar apenas em duas coisas para determinar a humanidade uns dos outros: a qualidade da nossa atenção e o exercício do nosso julgamento.
Será isso o suficiente?
Acostumados a maravilhas
O falecido e grande crítico de cinema americano Roger Ebert escreveu uma vez uma crítica favorável a um filme da série Star Wars, hoje considerado por muitos como o pior da série.
Ebert não era preguiçoso quando se tratava de exercer o julgamento, mas também era agradavelmente pouco cínico. Ele achava que, nesse caso, os efeitos especiais eram tão inovadores que cabia ao crítico fazer uma pausa e avaliar. “Como nos acostumamos rapidamente com as maravilhas”, escreveu ele.[ii]
Os comentários atuais sobre IA generativa podem parecer tão antiquados quanto aquele filme de Star Wars, mas ainda assim devemos parar um momento para fazer como Ebert. Devemos reconhecer a engenhosidade das ferramentas que podem receber comandos em linguagem humana natural e gerar material sofisticado em resposta.
| Nada surge do nada, e a IA generativa tem uma longa e rica história. |
No momento em que este artigo foi escrito (junho de 2023), o material gerado dessa forma pode assumir a forma de texto escrito ou falado, código de programação (pelo ChatGPT ou Bard) ou imagens estáticas (pelo Stable Diffusion, Midjourney ou DALL-E). Outras possibilidades que estão surgindo envolvem imagens em movimento, música, reconhecimento e síntese facial, reconhecimento e síntese de voz e a capacidade de enviar imagens ou sons (em vez de palavras) como prompts.
Duas descobertas no campo do aprendizado de máquina deram início às possibilidades mais recentes. A primeira, feita em 2015 por pesquisadores de Stanford e Berkeley, foi a invenção dos modelos de “difusão”.[iii] Inspirando-se no fenômeno da difusão, tal como entendido na física, esses modelos começam por treinar máquinas para distorcer imagens, transformando imagens nítidas em ruído incoerente.
A ideia é que, se a máquina for treinada para criar nada a partir de algo, ela poderá então ser treinada para reverter o processo e criar algo a partir do nada. Ou melhor — antecipando a objeção do Rei Lear de que “nada pode vir do nada”[iv] — criar algo a partir do gérmem de um prompt escrito e de um enorme conjunto de dados de imagens com os quais a máquina foi previamente treinada.
As imagens geradas dessa maneira não podem ser descartadas como simples repetições de material existente. Elas são mais inovadoras e interessantes do que isso. Elas também são mais assustadoras — incluindo até mesmo imagens fotorrealistas de pessoas que nunca existiram.
A segunda inovação envolve os “grandes modelos de linguagem” (LLMs), que são formas de aplicar o aprendizado de máquina a grandes quantidades de texto. Em 2017, pesquisadores do Google inventaram uma arquitetura “transformadora” para esses modelos.[v] Em comparação com abordagens anteriores, isso implicou um foco mais exclusivo e um meio mais flexível de emular o processo humano de atenção. A arquitetura transformadora é responsável pelo “T” em “ChatGPT”, uma ferramenta cujos criadores — a OpenAI — passaram a ganhar vantagem sobre o Google.
Os resultados destas descobertas falam por si (por vezes, literalmente), e muitas vezes pode parecer que esta tecnologia surgiu do nada. Mas a objeção de Lear, desastrosamente errada quando aplicada à sua filha mais nova, é correta neste contexto. Nada pode surgir do nada, e a IA generativa tem uma longa e rica história.
Ciência poética
A IA generativa é o culminar de uma ideia que a humanidade vem ponderando há séculos: a ideia de apresentar algo a alguma criatura mágica ou misteriosa, divindade ou dispositivo e, em seguida, receber de volta algo transformado ou recriado.
Hoje em dia, chamamos a coisa submetida de input, ou “entrada” (ou, no caso da IA generativa, o prompt) e a coisa devolvida de output, ou “saída”.
Podemos rastrear essa ideia até onde quisermos. Ainda hoje, teóricos da computação realizam experimentos mentais envolvendo as chamadas “máquinas oráculo”, emprestando um termo que outrora descrevia os profetas da antiguidade. Mas se quisermos entender quando a ideia de entrada/saída passou da magia para as máquinas, o melhor ponto de partida é provavelmente o ano em que Victoria herdou o trono britânico: 1837.
Por que 1837? Por um lado, foi o ano em que Lejeune Dirichlet — um matemático alemão com um nome francês incongruente — formalizou a definição moderna de “função”, algo que recebe um valor numérico como entrada e produz um valor numérico como saída.[vi] Uma função não escreve um artigo para você, não faz um desenho bonito nem faz seu dever de casa, mas é o primeiro passo na longa jornada para criar uma máquina que possa fazer essas coisas.
1837 também foi o ano em que o polímata inglês Charles Babbage descreveu pela primeira vez sua Máquina Analítica, precursora do computador eletrônico moderno.[vii] Com base em sua Máquina Diferencial (uma calculadora mecânica) e em teares programáveis criados por vários inventores franceses (eventualmente patenteados e batizados em homenagem a Joseph Marie Jacquard), Babbage começou a criar um dispositivo de uso mais geral.
A colega matemática de Babbage, Ada Lovelace, elaborou suas ideias e criou o que foi possivelmente o primeiro programa de computador do mundo — algo que recebe um comando codificado como entrada e, em seguida, faz com que um dispositivo execute uma tarefa ou série de tarefas como resultado. A rigor, Lovelace criou o “traço de execução” de um programa, e não um programa propriamente dito, mas a ideia da programação de computadores está implícita no que ela escreveu.[viii]
Lovelace cunhou a bela expressão “ciência poética” para descrever o que desejava alcançar.[ix] Sua educação foi marcada pelo desejo de sua mãe, que tinha inclinação para a matemática, de transformá-la em uma pensadora lógica e sensata, em vez de uma poeta rebelde como seu pai, o famoso Lord Byron. Mas Lovelace recusou-se a aceitar que poesia e ciência fossem antagônicas. Sua visão mais integrada fica evidente em sua afirmação de que “a Máquina Analítica tece padrões algébricos da mesma forma que o tear Jacquard tece flores e folhas”.
Lovelace tinha uma visão matizada do que uma Máquina Analítica (ou seu sucessor) poderia alcançar. Por um lado, ela achava que ele poderia ser usado para criar arte — especificamente, para “compor peças musicais elaboradas e científicas”. Por outro lado, ela alertou que a Máquina Analítica não era um criador de obras totalmente originais. Ela disse que a máquina “não tem qualquer pretensão de originar nada” e que “sua função é nos ajudar a disponibilizar o que já conhecemos”.[x]
Essas declarações de 180 anos atrás caracterizam muito bem as visões contrastantes da IA generativa atual. É realmente apropriado que dois dos grandes modelos de linguagem da família GPT-3 sejam chamados de “Ada” e “Babbage”.
Um elemento aleatório
Levaria um século para outro polímata inglês, Alan Turing, criar um modelo rigoroso para o funcionamento dos computadores e dos programas de computador. Mas algo importante aconteceu nos cem anos que separaram a invenção do computador da sua plena realização: a invenção das cadeias de Markov.
|Se quisermos afirmar a existência do livre arbítrio, não podemos confiar na matemática para defender nossa causa.|
As cadeias de Markov oferecem uma maneira de estabelecer conexões probabilísticas e dependências entre duas ou mais coisas distintas. Quando se faz isso e, em seguida, se dá um passo atrás para considerar o quadro resultante, o que se revela é uma interação sutil entre previsibilidade e aleatoriedade. Esse tipo de interação está no cerne da IA generativa moderna. Isso foi antecipado por Turing quando argumentou que “provavelmente é sensato incluir um elemento aleatório em uma máquina de aprendizagem”[xi].
Curiosamente, o matemático russo Andrey Andreyevich Markov Sr., que deu nome às cadeias de Markov, inventou-as originalmente por volta de 1907 para refutar um argumento a favor da existência do livre arbítrio humano[xii]. Poderíamos concluir que Markov deveria ser ignorado em uma Carta sobre a Liberdade (Letter on Liberty), mas, na verdade, ele fez um favor à causa da liberdade.
A disputa específica de Markov era com teóricos rivais que defendiam que a existência do livre arbítrio poderia ser provada matematicamente, um argumento que foi refutado pelas propriedades das cadeias de Markov[xiii]. Ele demonstrou que, se quisermos afirmar a existência do livre arbítrio, não podemos confiar na matemática para defender nosso ponto de vista.
Não contente em usar suas cadeias para vencer essa discussão, Markov as utilizou novamente em 1913 para analisar os primeiros 20.000 caracteres (tipográficos) do grande romance em verso de Alexander Pushkin, Eugene Onegin. Markov criou uma cadeia que capturava a probabilidade de uma consoante ser seguida por uma vogal, ou de uma vogal ser seguida por uma consoante, na escrita de Pushkin[xiv]. Este é um exemplo muito literal de alguém que segue a “ciência poética” de Lovelace.
Um pioneiro subsequente da teoria da informação, Claude Shannon, percebeu que métodos semelhantes aos de Markov poderiam ser usados para fins generativos e analíticos, para “aproximar-se de uma linguagem natural por meio de uma série de linguagens artificiais simples”[xv]. Mas a maneira que Markov estudou Pushkin já começa a se assemelhar, de forma muito rudimentar, ao que o ChatGPT faz nos bastidores quando você pede para ele escrever no estilo de Pushkin (ou de quem quer que seja).
|Se a IA generativa nos perturba ou engana, isso pode sugerir que nossa atenção e nosso julgamento já deixavam a desejar.|
Markov aplicou seus métodos meticulosamente à mão, usando apenas dois parâmetros: probabilidade de consoante para vogal e probabilidade de vogal para consoante.
O ChatGPT, por outro lado, usa computação eletrônica rápida e bilhões (segundo o GPT-4, supostamente trilhões) de parâmetros. Quando a necromancia digital se torna tão poderosa, começa a produzir um Pushkin virtual zumbi bastante mais coerente (infelizmente, o original permanece teimosamente improdutivo em seu túmulo em Pskóvskaya Óblast).
Passando no teste
Não precisamos mais de um excêntrico brilhante e obsessivo como Markov para transformar poesia em dados ou tentar o reverso alquímico. A IA generativa amplamente disponível agora pode fazer isso por nós.
Se os resultados satisfazem a definição muito citada da teórica de IA Margaret Boden de “criatividade” como “a capacidade de gerar ideias novas e valiosas”[xvi] — e, mais especificamente, quem ou o que merece o crédito se esse padrão for atingido — são temas ricos para debate.
|Se temos medo da ameaça que a IA generativa pode representar para nossa liberdade, talvez nossa crença e defesa da liberdade precisem ser revitalizadas.|
Mas o que é cada vez mais óbvio é que o teste de Turing é, na verdade, mais uma avaliação de nós mesmos do que da nossa tecnologia. Se perdermos a capacidade de nos distinguir uns dos outros e das máquinas, então, em certo sentido, somos nós que falhamos no teste, e não as nossas máquinas que o passaram.
Se a IA generativa nos perturba ou engana, isso pode sugerir que nossa atenção e nosso julgamento já deixavam a desejar — que estávamos satisfeitos em nos comportarmos como máquinas ou tratar outras pessoas como se elas fossem máquinas, antes que se tornasse viável conversar literalmente com máquinas. Se aspectos do nosso comportamento, comunicação e criação agora podem ser imitados por máquinas, talvez devêssemos encarar isso como um incentivo para nos comportarmos, nos comunicarmos e criarmos de maneira diferente. Se temos medo da ameaça que a IA generativa pode representar para nossa liberdade, talvez nossa crença e defesa da liberdade precisem ser revitalizadas.
O que a IA generativa está tentando nos dizer? Em um nível, nada. Ela não tem capacidade de vontade consciente e, na opinião deste autor — que admite que há muitos debates filosóficos interessantes a serem feitos sobre o assunto —, é improvável que adquira tal capacidade. Mas, em outro sentido, há uma mensagem clara vinda da IA generativa, se estivermos dispostos a ouvir.
A mensagem é que precisamos melhorar nosso jogo.
Referências
[i] Turing, Alan Mathison, “Computing machinery and intelligence” (Máquinas computacionais e inteligência), Mind, Volume 59, Edição 236, Oxford University Press, 1950, p. 433-434.
[ii] Ebert, Roger, “Star Wars - Episódio I: A Ameaça Fantasma”, Chicago Sun-Times, 17 de maio de 1999.
[iii] Sohl-Dickstein, J, Weiss, EA, Maheswaranathan, N e Ganguli, S, “Deep unsupervised learning using nonequilibrium thermodynamics” (Aprendizagem profunda não supervisionada usando termodinâmica de não equilíbrio), Proceedings of Machine Learning Research, Volume 37, Microtome Publishing, 2015, p. 2256-2265.
[iv] Shakespeare, William, Rei Lear (Quarto 1), 1608, Ato 1, Cena 1. Observe que, em uma edição posterior da peça (o Primeiro Fólio, 1623), Lear diz “Nada virá do nada” (ênfase do autor).
[v] Vaswani, A, Shazeer, N, Parmar, N, Uszkoreit, J, Jones, L, Gomez, AN, Kaiser, L e Polosukhin, I, “Attention is all you need”, Advances in Neural Information Processing Systems, Volume 30, Curran Associates, p. 5999-6009.
[vi] A definição formal relevante de uma função é apresentada em Lejeune Dirichlet, Johann Peter Gustav, “Über die Darstellung ganz willkürlicher Funktionen durch Sinus- und Cosinusreihen”, Repertorium der Physik, Volume 1, Moritz Veit and Company, 1837, p. 152-153. Esta está recolhida em Lejeune Dirichlet, Johann Peter Gustav (ed. Kronecker, Leopold), Werke, Volume 1, Georg Reimer, 1889, p. 135-136.
[vii] A descrição de 1837 é apresentada em Babbage, Charles, “On the mathematical powers of the calculating engine”, coletada em Randell, Brian (ed.), The Origins of Digital Computers, 3ª edição, Springer Verlag, 1982, p. 19-54.
[viii] O traço de execução de Ada Lovelace - intitulado “Diagrama para o cálculo pelo Motor dos Números de Bernoulli” - é uma página desdobrável sem numeração inserida na Nota G em suas “Notas do tradutor” após Menabrea, Luigi Federico, “Sketch of the Analytical Engine invented by Charles Babbage Esq”, Scientific Memoirs, Volume 3, Richard e John E Taylor, 1843, p. 722-731.
[ix] Fragmento sem data (que se acredita ter sido escrito antes de dezembro de 1845) de uma carta de Ada Lovelace para Lady Byron, coletado em Toole, Betty Alexandra (ed.), Ada, the Enchantress of Numbers: A selection from the letters of Lord Byron’s daughter and her description of the first computer, Strawberry Press, 1992, p. 319.
[x] Citações das notas A e G em “Notas do tradutor” de Ada Lovelace, seguindo Menabrea, Luigi Federico, “Sketch of the Analytical Engine invented by Charles Babbage Esq” (Esboço do motor analítico inventado por Charles Babbage Esq), Scientific Memoirs, Volume 3, Richard e John E Taylor, 1843, p. 696, 694, 722.
[xi] Turing, Alan Mathison, “Computing machinery and intelligence”, Mind, Volume 59, Edição 236, Oxford University Press, 1950, p. 459.
[xii] O artigo original de Markov sobre o assunto foi publicado em russo em uma edição do Boletim da Sociedade Físico-Matemática de Kazan (Série 2, Volume 25) datada de 1906 na página de rosto, mas na verdade foi publicado em 1907 (com a data de 1907 indicada no final do artigo de Markov). Não há tradução para o inglês disponível no momento da redação deste artigo, mas um artigo subsequente de 1907, no qual Markov elabora essas ideias - “Extensão dos teoremas do limite da teoria da probabilidade para uma soma de variáveis conectadas em uma cadeia” — está disponível em tradução para o inglês como Apêndice B de Howard, Ronald Arthur, Dynamic Probabilistic Systems, Volume 1: Markov Models, John Wiley and Sons, 1971, p. 552-576.
[xiii] Um relato divertido da disputa é apresentado em Ellenberg, Jordan Stuart, Shape: The Hidden Geometry of Absolutely Everything, Penguin, 2022, p. 84-89.
[xiv] Markov Sr., Andrey Andreyevich, “Um exemplo de investigação estatística do texto Eugene Onegin sobre a conexão de amostras em cadeias”, palestra na Academia Russa de Ciências, 23 de janeiro de 1913. Tradução para o inglês publicada em Science in Context, Volume 19, Edição 4, Cambridge University Press, 2006, p. 591-600.
[xv] Shannon, Claude Elwood, “Uma teoria matemática da comunicação”, Bell System Technical Journal, Volume 27, Edição 3, Bell Telephone Laboratories, 1948, p. 387.
[xvi] Boden, Margaret Ann, “Modelos computacionais de criatividade”, AI Magazine, Volume 30, Edição 3, Associação para o Avanço da Inteligência Artificial, 2009, p. 24.
Original em Academy of Ideas, junho de 2023.
Tradução: Larissa Souza
Sandy Starr é vice-diretor da Progress Educational Trust (PET), uma instituição de caridade que dá melhores opções para pessoas afetadas por infertilidade e condições genéticas. Ele atua no grupo de supervisão do projeto Governança de Modelos Embrionários Baseados em Células-Tronco, coordenado pela Cambridge Reproduction. Anteriormente, atuou nos grupos de trabalho que produziram as orientações de prática clínica Ethical Issues in Prenatal Genetic Diagnosis (2022) e Prenatal Diagnosis and Preimplantation Genetic Testing for Germline Cancer Susceptibility Gene Variants (2023). Ele escreveu sobre edição do genoma no British Medical Bulletin, no European Journal e no Microbiology Today.