Inteligência Artificial: entre o lucro e o interesse público
I. A demissão
A não ser que um alienígena aterrisse na terra daqui para o dia 31, ninguém tem dúvida de que a Inteligência Artificial (IA) foi o assunto do ano.
Em complemento, a OpenAI, desenvolvedora do ChatGPT, foi a ponta-de-lança dos debates a respeito do assunto, enquanto o seu CEO, Sam Altman, se tornou o principal porta-voz da tecnologia.
O CEO da OpenAI passou a encarnar o espírito da empresa e da própria IA, tanto quanto Mark Zuckerberg, por exemplo, representava o Facebook e a essência das redes sociais na altura de sua disseminação. Isso explica por que um dos acontecimentos mais surpreendentes do ano envolveu a demissão e o retorno triunfal de Sam Altman à chefia da OpenAI.
Entre 17 e 22 de novembro, (i) Sam Altman foi demitido pelo Conselho de Administração; (ii) os investidores e funcionários se rebelaram contra a sua saída, incluindo a ameaça desses que pediriam demissão caso o ex-chefe não fosse reintegrado; e (iii) Altman reassumiu o cargo de CEO da OpenAI, enquanto os responsáveis pela sua demissão deixaram o Conselho de Administração. Como descreveu o colunista do Financial Times, John Thornhill, “somente um patinador artístico em alta velocidade poderia comprimir mais piruetas em uma rotina tão curta”.
Veículos como Financial Times, New York Times, Reuters, The Economist, Wall Street Journal e Wired contaram que os ex-conselheiros da OpenAI estariam insatisfeitos com o ritmo de inovações levado a cabo por Sam Altman. Não é que o CEO seria lento demais, mas o contrário disso: o compasso acelerado de Sam Altman passaria por cima dos testes de segurança e demais verificações necessárias antes do lançamento de cada produto.
A demissão de Sam Altman deixou muita gente de cabelo em pé, e não só porque ele era o “cara”. Mas porque é bem incomum que uma decisão de tamanho impacto econômico seja tomada apenas com base em compromissos éticos, em especial quando a falha em cumpri-los sequer era alardeada pela imprensa ou investidores — basta notar a diferença entre a demissão de Altman e a do fundador e CEO da Uber, Travis Kalanick, após a divulgação de relatórios sobre a cultura de trabalho e outras controvérsias a seu respeito.
Com base nos deveres que os membros do Conselho de Administração entretêm com os investidores e funcionários, seria natural especular que os ex-conselheiros da OpenAI teriam faltado com tais deveres quando tomaram uma decisão contrária aos interesses econômicos da empresa. Só que eles agiram assim, não a despeito das regras societárias que regem o funcionamento da OpenAI, mas justamente por causa delas.
II. A fundação
A OpenAI foi criada em um contexto bastante particular. Voltada exclusivamente ao desenvolvimento da IA, a empresa estaria dedicada ao desenvolvimento de uma tecnologia poderosa — sobretudo para o bem, mas eventualmente para o mal.
A IA pode gerar avanços e ganhos de produtividade em diversas áreas (saúde, educação, pesquisa científica, etc), e ninguém em sã consciência duvida disso. Por outro lado, as consequências de seu uso incluem a automatização de postos de trabalho, a disseminação de informações falsas e outros usos perigosos (como controle de misseis, invasão de computadores e contas bancárias, etc), além do eventual desenvolvimento de uma inteligência à altura da cognição humanas (a chamada Artificial General Intelligence), cujos riscos são destacados há bastante tempo por acadêmicos e autores de ficção científica.
Na visão dos fundadores da OpenAI, uma empreitada na direção da AGI exige que o laboratório seja responsável o bastante, já que qualquer descuido equivale a enormes riscos para a sociedade. Os naturais candidatos — as chamadas big techs — pareciam incapazes de assegurar isso, bastando o exemplo dos algoritmos de seleção de conteúdo como prova da influência exercida pelos interesses mercantis sobre a conduta dessas empresas.
Elon Musk, um dos fundadores da OpenAI, ficou certo disso em meio a um debate com Larry Page, fundador do Google, conforme narrado por Walter Isaacson na recém-lançada biografia do criador da Tesla e da SpaceX.
Em sua festa de aniversário de 42 anos (2013), Musk teria dito para os convidados: “A menos que a humanidade estabeleça regulações para os sistemas de inteligência artificial, eles podem substituir os humanos, tornando nossa espécie irrelevante ou até mesmo extinta”.
E Page teria retrucado: “Por que importar se algum dia as máquinas superarem os humanos em inteligência, até mesmo em consciência? Seria simplesmente o próximo estágio da evolução”.
Ao final de 2015, Elon Musk se uniria com Sam Altman, Ilya Sutskever, entre outros, para fundar a OpenAI com o objetivo de “aumentar a probabilidade de que a IA fosse desenvolvida de maneira segura para que pudesse ser benéfica para a humanidade”, como se lê na biografia.
Essa intenção dos fundadores em desenvolver uma IA com segurança se refletiria não só no discurso, mas na própria forma jurídica adotada pela criadora do ChatGPT.
A OpenAI foi fundada como uma organização sem fins lucrativos, a ser capitalizada por meio de doações. Essas doações não assegurariam qualquer direito político aos respectivos doadores em relação às decisões da OpenAI. A destinação dos valores seria determinada exclusivamente pelos membros do Conselho de Administração, com base em critérios do que seria melhor para a humanidade
Para assegurar que IA trouxesse o máximo de benefícios para todos, os fundadores da OpenAI convidaram pessoas que entendem não só de ciência da computação e afins, mas de filantropia, políticas regulatórias e questões sociais, para integrarem o Conselho de Administração ao lado deles. Bom exemplo disso é o convite feito a alguém como Helen Torner, acadêmica e diretora do Centro de Segurança e Tecnologias Emergentes da Universidade de Georgetown.
Liderada por conselheiros com tais atribuições, bem como protegidos pelo mandato perpétuo (exceto se expulsos pelo voto da maioria dos demais conselheiros), a OpenAI seria capaz de resistir aos valores que impulsionam grande parte da indústria de tecnologia. Em termos práticos, a empresa não recorreria a estratégias de escalar o produto rapidamente, ou de testá-lo junto ao público quando ainda estivesse “semipronto” (vide o método do “build-measure-learn” das startups), por exemplo. O ritmo dos lançamentos seria determinado pelo “alinhamento”, termo que designa o alinhamento dos sistemas IA com objetivos e valores humanos, de acordo com a valoração dos membros do Conselho.
III. A transformação
A evolução da OpenAI se depararia com pedras no caminho. Com pouco mais de 2 anos de vida (2018), o seu mais notório fundador, Elon Musk, deixaria a empresa para se concentrar no desenvolvimento da IA por meio dos pilotos automáticos da Tesla.
A saída de Musk veio na esteira de uma outra decepção: os fundadores da OpenAI esperavam receber em torno de $1 bilhão em doações, mas os valores obtidos mais de três anos depois (2019) mal ultrapassaram 10% disso — uma quantia obviamente aquém do poder computacional e talento humano necessários para o desenvolvimento da IA.
Sam Altman, Ilya Sutskever e os demais remanescentes se dariam conta de que as boas intenções não suplantavam o óbvio: o lucro é a condição básica para atrair pessoas a participar de empreendimentos de risco. Os $130,5 milhões obtidos demonstraram que os interessados não estariam tão dispostos a aplicar a sua riqueza em um negócio que embora beneficiasse a humanidade, não lhes renderia retorno financeiro.
Sem abrir mão dos compromissos que inspiraram a criação da OpenAI, a questão se tornou como levantar o capital necessário para a missão e ainda assim preservar o seu sentido original. A resposta em dois tempos ilustra o modelo societário adotado a partir de então: (i) a criação de uma OpenAI com finalidade lucrativa cuja emissão de quotas serviria para levantar o capital; e (ii) a submissão dessa empresa à condição de subsidiária da outra OpenAI (não-lucrativa) que a controlaria e concentraria todos os direitos políticos (ou seja, as quotas da nova OpenAI dariam apenas direitos econômicos aos investidores), de forma que a competência original do Conselho de Administração em liderar o projeto seguiria intocada.
A OpenAI não se passou de uma sociedade sem fins lucrativos, com uma missão de bem maior, para uma sociedade com fins lucrativos e supervisionada por um conselho que deve satisfação aos acionistas. Em lugar disso, adotou-se uma versão híbrida em que a sociedade sem fins lucrativos comanda a sociedade que pode gerar lucro, ao passo que os interessados investem nessa última cientes de que (i) a administração será inteiramente realizada pelo Conselho de Administração da OpenAI original, sem a possibilidade de interferência ou de eleição de administradores; e (ii) os conselheiros darão prioridade ao interesse público mesmo que isso prejudique o retorno financeiro.
Esse privilégio à missão pública está expresso no acordo operacional que é estabelecido entre a OpenAI e os respectivos investidores, tal como divulgado em seu próprio site:
IV. A reviravolta
A OpenAI constituiu a subsidiária com fins lucrativos e a consequente venda de quotas representou a injeção de capital no empreendimento — a começar pelo $1 bilhão de dólares investido pela Microsoft.
Querendo ou não, daí em diante a OpenAI estaria submetida às pressões que caracterizam os negócios propriamente ditos: os investidores pressionando pelo lançamento de novos produtos e aumento das receitas; funcionários demandando mais investimentos para o desenvolvimento de novas tecnologias; e por aí vai.
A avaliação quanto o ritmo a ser empregado daria origem a um conflito interno no Conselho de Administração da OpenAI entre dois grupos: (i) um mais preocupado com os riscos relacionados ao desenvolvimento acelerado da IA, tal como seria vocalizado pela conselheira Helen Toner; e (ii) outro grupo mais inquieto pela urgência de largar na frente dos demais concorrentes, tal como defendido por Sam Altman (o CEO da OpenAI que também era membro do Conselho).
Esse conflito correspondia à uma divergência sobre o que seria mais benefício para a humanidade, de acordo com a missão da OpenAi: (i) os primeiros defendiam um ritmo mais precavido de lançamentos, com receio de efeitos imprevistos e da corrida irresponsável entre os concorrentes; e (ii) os últimos estariam mais preocupados com o risco de que uma IA concorrente dominasse o mercado — e não é difícil adivinhar que os funcionários e investidores, como a Microsoft, se aproximariam desse segundo grupo já que mais adequado aos seus anseios de lucro e crescimento.
A primeira consequência dessa disputa foi o racha que originou a Anthropic, fundada em 2021 por ex-funcionários da OpenAI como Dario Amodei, ex-vice-presidente de pesquisa da OpenAI na altura dos lançamentos do Chat GPT 2 e 3 (versões disponíveis apenas para desenvolvedores). Em entrevista para Fortune, Amodei explicou que a saída da OpenAI resultou justamente do desajuste entre a pressão por escalar os produtos e a garantia de que cumpriam os requisitos de segurança.
Ao final de 2022, quando todos na OpenAI estavam trabalhando no GPT-4, circularam rumores de que a Anthropic estaria prestes a lançar o seu próprio chatbot. Em sua condição de CEO, Sam Altman então teria puxado as rédeas e determinado o lançamento imediato da versão do Chat GPT existente naquela altura (3.5), a despeito de alguns funcionários terem expressado desconforto pela pressa em lançar um modelo que, pela primeira vez, seria destinada para o público em geral.
Com o sucesso estrondoso do ChatGPT, o conflito só fez se acirrar: de um lado, a pressão para desacelerar os trabalhos; e de outro, o desejo de aproveitar o momento e lançar ainda mais rápido o próximo modelo para consolidar a liderança da OpenAI. A chefia de Sam Altman guiou a OpenAI pela roda do crescimento acelerado, de que são exemplos os lançamentos da opção paga e da versão 4.0 do ChatGPT no primeiro semestre de 2023, além do novo investimento de $10 bilhões da Microsoft.
O crescente incômodo entre o Conselho de Administração e a direção de Sam Altman se tornou público quando Helen Toner publicou um artigo acadêmico em que criticou o lançamento do ChatGPT 3.5 “antes de realizar ou publicar testes de segurança tão detalhados”, e o consequente “senso de urgência que despertou nas grandes empresas de tecnologia”. O passo seguinte seria a demissão de Sam Altman e os seguidos rodopios até a sua definitiva reintegração, junto a saída dos responsáveis pela sua demissão.
V. O fracasso
A forma jurídica da OpenAI se originou da compreensão dos fundadores de que o desenvolvimento da IA necessariamente transborda o campo privado e adentra a esfera do interesse público. Essa é a razão de por que a empresa não poderia se guiar por interesses lucrativos, os quais deveriam se subordinar a um interesse público, independente dos investidores e a serviço da humanidade.
A demissão de Sam Altman representou ápice de uma disputa entre os dois extremos ideológicos do Conselho de Administração da OpenAI para traduzir qual seria esse interesse. A maioria dos membros do Conselho entendeu que as condutas do CEO não seriam coerentes com a missão da OpenAI, e então o demitiram. Já os funcionários e os investidores discordaram de que a demissão de Sam Altman seria adequada ao fim de beneficiar humanidade, e por isso pressionaram os conselheiros até a reintegração do CEO.
Ao misturar os dois modelos — sem e com fins lucrativos — numa mesma organização, a OpenAI esperava obter o melhor de cada um deles: (i) direcionar os objetivos da empresa a fim de atender os anseios e as necessidades humanas, e não exclusivamente às expectativas dos sócios; e (ii) levantar o capital necessário para a empreitada.
Em vez disso, a OpenAI teve o pior de ambos: (i) o Conselho de Administração, responsável apenas perante si mesmo, agindo com base em uma interpretação subjetiva da missão da empresa; e (ii) a incapacidade desse Conselho em resistir a pressão de investidores e funcionários.
VI. A inadequação
O ocorrido ao menos pôs luz sobre a inadequação da forma jurídica eleita pela OpenAI para a realização de sua missão. Ficou claro a dificuldade em estabelecer critérios abstratos (“interesse público”, “benefícios para humanidade”, etc) para guiar uma empresa desse porte — cuja complexidade não se resume ao produto fabricado, mas a quantidade de capital e trabalho necessários, dos quais resultam a comunidade de investidores, administradores e funcionários que constituem o empreendimento
Essas inúmeras pessoas trabalham em conjunto para atingir o fim econômico almejado pela empresa — nesse caso, o desenvolvimento da IA — com a maior eficiência possível. Para que isso ocorra, é essencial harmonizar a convivência entre todos as partes envolvidas, em especial os investidores e os administradores (que coordenam a empresa).
Nessa relação, os investidores fornecem o capital e passam a depender das decisões tomadas pelos administradores — o que pressupõe o alinhamento de interesses entre ambos para que a atuação de forma coerente e sem surpresas. A finalidade lucrativa serve para assegurar que os incentivos dos administradores estão alinhados com os objetivos dos investidores.
Em outras palavras: é a finalidade lucrativa que torna as ações dos administradores inteligíveis e mensuráveis para os investidores — afinal, uma coisa é entender e medir as decisões administrativas por meio de critérios econômicos como lucro líquido, crescimento da receita e valorização do preço da ação; e outra coisa é definir o que é melhor, ou pior, para o futuro da humanidade.
No caso da OpenAI, a opacidade sobre o interesse público em questão resultou em imensas dificuldades para o acompanhamento e fiscalização das decisões dos administradores por parte dos investidores. A isso ainda se soma as demais características da estrutura societária da OpenAI, como o mandato perpétuo dos administradores (a impedir que os investidores selecionem ou removam conselheiros) e a vedação a qualquer interferência no processo de tomada de decisão (a excluir o papel dos investidores em aprovar ou ratificar qualquer das decisões).
Por tudo isso, a OpenAI se caracterizava pela falta de um sistema de freios e contrapesos para as relações entre investidores e administradores. Basta notar as consequências disso: de um lado, o Conselho de Administração se sentiu para além do bem e do mal para demitir Sam Altman sem maiores explicações a respeito; e de outro, os investidores, uma vez que discordaram do “interesse público” perseguido pelos administradores, não tiveram qualquer escrúpulo em recorrer a meios de pressão externos (como as ameaças da Microsoft em contratar Sam Altman e os demais funcionários que abandonassem a OpenAI) para que o Conselho voltasse atrás em sua decisão.
VII. O guardião do interesse público
Como a eficiência de uma sociedade do porte da OpenAI está diretamente relacionada à busca de lucros, há enormes desafios para o funcionamento de uma empresa desse tipo sob o controle de uma entidade não-lucrativa cuja missão é salvar a humanidade, tal como os episódios recentes da OpenAI comprovam.
Como outro lado da mesma moeda, a missão de salvar a humanidade é muito importante para ser deixada nas mãos de uma empresa e meia dúzia de administradores e investidores. É por isso que se deve voltar os olhos para a instituição cuja missão precípua é justamente interpretar o interesse público: o Estado.
A instituição estatal é caracterizada pelos representantes eleitos (os políticos) e as discussões em âmbito legislativo que permitem a interpretação do que é melhor para a sociedade, tal como expresso na forma de regulamentos aplicáveis a todas as empresas (tanto a OpenAI, quanto as demais concorrentes). Se existe dúvida quanto ao ritmo adequado de lançamentos, o Estado pode determinar as certificações e testes necessários antes de cada lançamento, por exemplo.
Deixados para trás os arquétipos da Guerra Fria de laboratórios de IA estatizados, a função do Estado é regular a atividade econômica privada de modo a endereçar as suas externalidades negativas — como a destruição dos recursos naturais no caso de uma mineradora ou o aumento do congestionamento no caso de uma imobiliária, por exemplo.
No âmbito da IA, cabe ao Estado endereçar as externalidades negativas relacionadas ao mal-uso da tecnologia, cujos exemplos incluem desinformação, automação de armas letais, vigilância massiva, etc. Isso pode ser feito pela combinação entre medidas preventivas (como a exigência de registro e licenciamentos de sistemas pelas agências reguladoras antes que sejam disponibilizados aos públicos) e de enforcement (a garantia de que desenvolvedores responderão legalmente pelos danos de seus produtos).
O Estado assim evita os usos perigosos da IA ou, no pior dos casos, impõe um preço alto para as falhas decorrentes de seu uso indevido. Em consequência disso, as empresas são forçadas a agirem com segurança já que o próprio lucro dos negócios passa a depender disso — quebrar as leis, afinal, é ruim pelas multas que serão devidas, além do risco reputacional em violar as regras legais.
É assim que o interesse público do Estado e o interesse lucrativo das empresas se combinam em benefício da sociedade: de um lado, as empresas se beneficiam de uma estrutura mais direta e de maior previsibilidade, já que os interesses entre as partes estão alinhados em torno da finalidade lucrativa; e de outro lado, o Estado cuida das externalidades negativas da atividade empresarial por meio de normas que regulam a atividade econômica de acordo com o interesse público.
Colocando essa roda para girar, as empresas, à medida que perseguem o lucro de acordo com as normas, geram impostos que fortalecem o Estado; e esse mesmo Estado, enquanto prepara normas eficientes, impulsiona a atividade econômica, perfazendo um círculo virtuoso.
Na contramão disso, o fato de que empresas como a OpenAI estão supostamente assumindo funções públicas diminui as pressões por reformas políticas orientadas para a criação de normas e melhorias do Estado. O melhor exemplo disso é que mais de um ano após o lançamento do ChatGPT 3.5, os diversos países sequer ainda tem uma regulação para IA (a União Europeia é quem está mais perto disso).
As recentes encrencas na OpenAI ao menos deixam a lição de que a substituição do Estado pelas boas intenções das empresas não resulta em maior proteção da sociedade. Diferente disso, a atuação dessas empresas se torna menos eficiente, assim como o Estado é deixado de lado, e se perde a oportunidade de aprimorá-lo. Está mais do que na hora de que o verdadeiro guardião do interesse público entre em campo.