BusinessTimes

ChatGPT é vilão? Veja a íntegra da carta em que Musk, Wozniak e mais de 1 mil pedem pausa nas pesquisas de IA

29 mar 2023, 20:32 - atualizado em 29 mar 2023, 20:32
ChatGPT 4 elon musk steve wozniak carta aberta future of life institute inteligência artificial IA OpenAI tecnologia
“Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo?”, questiona a carta assinada por Musk e outros experts em tecnologia (Imagem: REUTERS/Florence Lo)

Elon Musk, o homem mais rico do mundo, costuma chamar a atenção da mídia com seus projetos que beiram a ficção científica, como a colonização de Marte. Por isso, o bilionário não pode ser tachado de inimigo do desenvolvimento científico e tecnológico, e sua adesão à carta aberta lançada hoje (29) pelo grupo Future of Life Institute ganha ainda mais peso.

O instituto sem fins lucrativos veio a público, nesta quarta-feira, pedir a suspensão imediata do desenvolvimento e treinamento de inteligências artificiais (IAs), cujas habilidades possam competir com as humanas em qualquer área.

Segundo o grupo, composto por empresários, acadêmicos e pesquisadores, entre outros, o desenvolvimento de IAs está “fora de controle” e pode pôr em risco a própria sobrevivência da humanidade.

CONTINUA DEPOIS DA PUBLICIDADE

ChatGPT: Até seus criadores admitem que é preciso supervisionar Inteligência Artificial

A carta aberta conclama laboratórios de IAs a pausarem seus trabalhos por, pelo menos, seis meses, para que se juntem a um grande esforço para estabelecer rigorosos protocolos de segurança, supervisão e rastreamento de IAs com habilidades quase humanas, como a nova versão do ChatGPT – o ChatGPT-4, criado pela startup OpenAI.

“Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema”, afirma o grupo.

Além de Musk, outros peso-pesados do mundo da tecnologia também aderiram ao apelo, como Steve Wozniak, cofundador da Apple. A carta-aberta permite a adesão de qualquer pessoal ao abaixo-assinado que a acompanha. Devido à grande demanda, porém, as assinaturas foram pausadas.

Veja a íntegra da carta subscrita por Musk, Wozniak e outros especialistas, pedindo a suspensão do desenvolvimento de Inteligências Artificiais (IAs).

“Sistemas de IA com inteligência competitiva com a humana pode trazer profundos riscos à sociedade e à humanidade, como mostrado por extensa pesquisa e reconhecido por importantes laboratórios de IA. Como se afirma no amplamente apoiado Asilomar AI Principles, uma IA avançada poderia representar uma profunda mudança na história da vida na Terra, e deveria ser planejada e gerida com os correspondentes cuidados e recurso. Infelizmente, este nível de planejamento e gestão não está ocorrendo, mesmo que tenhamos visto, nos últimos meses, ao laboratórios de IA presos a uma corrida fora de controle para desenvolver e empregar cérebros digitais ainda mais poderosos que ninguém – nem mesmo seus criadores – pode compreender, predizer ou controlar razoavelmente.

Os sistemas de IA contemporâneos estão, agora, se tornando competitivos com os humanos em tarefas em geral, e devemos nos perguntar: deveríamos permitir que máquinas inundem nossos canais de informação com propaganda e inverdades? Deveríamos automatizar todos os trabalhos, inclusive os mais gratificantes? Deveríamos desenvolver mentes não-humanas que poderiam, eventualmente, nos superar em número e em inteligência, nos tornando obsoletos e nos substituindo? Deveríamos nos arriscar a perder o controle de nossa civilização? Essas decisões não devem ser delegadas para líderes do setor de tecnologia não-eleitos. Poderosos sistemas de IA deveriam ser desenvolvidos, somente se estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis. Esta confiança deve ser bem justificada e crescer com a magnitude dos efeitos potenciais de um sistema. A recente declaração da OpenAI sobre a inteligência artificial em geral afirma que “em certo ponto, pode ser importante contar com revisão independente, antes de iniciar o treinamento de futuros sistemas, e para os esforços mais avançados para estabelecer um limite para a taxa de crescimento da computação utilizada para criar novos modelos.” Nós concordamos. E estamos neste ponto agora.

Portanto, conclamamos todos os laboratórios de IA a suspender imediatamente por, pelo menos, 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4. Esta pausa deveria ser pública e verificável, e incluir todos os atores-chave. Se tal pausa não puder ser implementada rapidamente, os governos deveriam vir a campo e instituir uma moratória.

Os laboratórios de IA e especialistas independentes deveriam usar essa pauta para, em conjunto, desenvolver e implementar um leque de protocolos de segurança compartilhados para o design e o desenvolvimento de IAs avançadas, que sejam rigorosamente auditados e supervisionados por experts externos e independentes. Esses protocolos deveriam assegurar que os sistemas que aderirem a eles são seguros, acima de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento de IAs em geral, mas simplesmente um passo atrás de uma perigosa corrida rumo a cada vez maiores e imprevisíveis “modelos caixas-pretas” com capacidades emergentes.

A pesquisa e o desenvolvimento de IA deveria ser reorientada para tornar os atuais e poderosos sistemas, que representam seu estado-da-arte, mais acurados, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, os desenvolvedores de IA devem trabalhar em conjunto com os formuladores de políticas públicas para acelerar dramaticamente o desenvolvimento de sistemas robustos de governança das IAs. Isso deveria, no mínimo, incluir: novas e capacitadas autoridades regulatórias dedicadas à IA; monitoramento e rastreamento de sistemas de IA altamente capazes e grandes pools de capacidade computacional; sistemas de proveniência e marca-d’água para auxiliar a distinguir o real do sintético e rastrear fissuras no modelo; um robusto ecossistema de auditoria e certificação; responsabilização por danos causados por IA; robustos fundos públicos para a pesquisa técnica de segurança de IA; e institutos bem financiados para lidar com as dramáticas disrupturas econômicas e políticas (especialmente à democracia) que a IA causará.

A humanidade pode gozar de um futuro florescente com a IA. Ao sermos bem-sucedidos em criar poderosos sistemas de IA, podemos agora usufruir de um “verão da IA”, no qual colhemos os frutos, projetamos os sistemas para o claro benefício de todos, e damos à sociedade uma chance de se adaptar. A sociedade já suspendeu outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui. Vamos gozar de um longo verão da IA, e não corrermos despreparados para um outono decadente.”

Veja a carta original em inglês:

“AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research[1] and acknowledged by top AI labs.[2] As stated in the widely-endorsed Asilomar AI Principles, Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources. Unfortunately, this level of planning and management is not happening, even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.

Contemporary AI systems are now becoming human-competitive at general tasks,[3] and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system’s potential effects. OpenAI’s recent statement regarding artificial general intelligence, states that “At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models.” We agree. That point is now.

Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.

AI labs and independent experts should use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts. These protocols should ensure that systems adhering to them are safe beyond a reasonable doubt.[4] This does not mean a pause on AI development in general, merely a stepping back from the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.

AI research and development should be refocused on making today’s powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.

In parallel, AI developers must work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI; oversight and tracking of highly capable AI systems and large pools of computational capability; provenance and watermarking systems to help distinguish real from synthetic and to track model leaks; a robust auditing and certification ecosystem; liability for AI-caused harm; robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions (especially to democracy) that AI will cause.

Humanity can enjoy a flourishing future with AI. Having succeeded in creating powerful AI systems, we can now enjoy an “AI summer” in which we reap the rewards, engineer these systems for the clear benefit of all, and give society a chance to adapt. Society has hit pause on other technologies with potentially catastrophic effects on society.[5] We can do so here. Let’s enjoy a long AI summer, not rush unprepared into a fall.”