Un astronauta, frente a, creando una

De 1950 a Q*: a odisseia continua na busca pela inteligência artificial geral da AGI

Desde a década de 1950, a ideia da Inteligência Geral Artificial (IAG) capturou a imaginação de cientistas e entusiastas. Agora, com o desenvolvimento do projeto Q* da OpenAI, estamos em um ponto de inflexão. Estamos a viver a prequela de uma realidade que só tinha sido imaginada em obras como "2001: Uma Odisseia no Espaço"

Un astronauta, bajo un, con líneas, que simbolizan

OpenAI's Q*: Uma prequela de '2001: Uma Odisseia no Espaço'?

A representação do HAL 9000 em "2001: Uma Odisseia no Espaço", de Stanley Kubrick e Arthur C. Clarke, deu-nos um vislumbre precoce do que poderia ser uma AGI. Atualmente, o progresso no projeto Q* de OpenAI Parecem ser os primeiros passos para a realização de uma inteligência artificial com capacidades comparáveis às dos humanos. Este projeto pode representar uma etapa preliminar para o tipo de AGI que HAL 9000 personificou.

Referencial teórico da AGI desde 1950

As aspirações em relação à AGI começaram na década de 1950, com pesquisadores como Herbert A. Simon e Marvin Minsky acreditando na possibilidade de máquinas capazes de realizar qualquer trabalho humano dentro de algumas décadas. Ao longo dos anos, este quadro teórico evoluiu de modelos de redes neurais para sistemas formais de raciocínio deliberativo e definições matemáticas de inteligência geral adaptativa.

Coincidências entre Q* e o referencial teórico da AGI

O desenvolvimento do Q* na OpenAI reflete vários aspetos dessas visões iniciais. Embora a informação disponível sobre Q* seja limitada, a sua aparente capacidade de resolução Problemas de Matemática a nível escolar com uma nova abordagem sugere um movimento no sentido da adaptabilidade e versatilidade características da IAG. Este foco em melhorar as habilidades de raciocínio dos modelos de IA está alinhado com os objetivos originais da AGI de replicar a cognição humana complexa.

Q* é um marco
O projeto Q* marca um marco na história da inteligência artificial. Embora ainda não tenhamos atingido uma AGI completa, iniciativas como a Q* indicam que estamos caminhando para realizar uma visão que começou há mais de meio século. Estamos à beira de um novo capítulo na IA, que pode ser lembrado como o início da verdadeira era da IA.

A corrida global pela AGI e as ideologias que a impulsionam.

1. A luta ideológica na Corrida para a AGI:
No contexto atual, como no filme '2001: Uma Odisseia no Espaço', onde uma inteligência artificial está no centro de um drama humano e tecnológico, a OpenAI encontra-se numa luta interna significativa. Por um lado, altruístas eficazes (EAs) aderem à missão original sem fins lucrativos da organização, enquanto, por outro lado, um grupo impulsionado pelo potencial comercial do ChatGPT e outros desenvolvimentos de IA busca acelerar seu crescimento e aplicação. Essa divisão reflete uma guerra ideológica que se estende além da OpenAI, ressoando nas mídias sociais, fóruns da internet e nas mentes de fundadores, pesquisadores e políticos que moldam o futuro da IA.

2. Segurança e Ética em Inteligência Artificial:
A segurança da IA, uma questão importante desde os tempos de Isaac Asimov, deu passos significativos nos últimos dez anos. Com as preocupações crescentes sobre IA desonesta que poderia acabar com a civilização, figuras como Nick Bostrom e Eliezer Yudkowsky têm defendido regulamentações rígidas. Em paralelo, o crescimento da ideologia do Altruísmo Eficaz (EA) colocou a segurança na IA em foco, especialmente em relação ao potencial destrutivo da AGI.

3. Efeito Aceleracionista e Competição Global para AGI:
Enquanto isso, o aceleracionismo efetivo (e/acc) representa uma filosofia emergente que desafia as preocupações de segurança na IA, com foco na aceleração do crescimento tecnológico e na mudança social. Os defensores do e/acc, como Guillaume Verdon, argumentam que a IA deve ser desenvolvida de forma aberta e acessível, sem restrições de segurança excessivas, acreditando que isso levaria a formas emergentes de consciência e variedades mais amplas de senciência. Essa abordagem colide diretamente com a visão mais cautelosa e regulamentada da IA proposta por EAs e outros defensores da segurança da IA.

4. Reflexões sobre o futuro da IA:
Olhando para essas fações e suas crenças quase religiosas sobre IA e AGI, um futuro incerto é colocado. Ninguém sabe como será a próxima década em relação à IA. Isso nos leva a uma questão crucial: é melhor permanecer flexível e evitar dogmas em um campo tão rapidamente mutável e potencialmente transformador como a IA? A história mostra-nos que o equilíbrio entre inovação arrojada e prudência informada sempre foi uma linha delicada, especialmente num campo tão poderoso e em rápida evolução como a inteligência artificial.

Analogias com o filme:

Na corrida para a AGI, estamos vendo um reflexo das tensões e expectativas que "2001: Uma Odisseia no Espaço" levantou décadas atrás. O Q* da OpenAI pode ser apenas um passo nesta longa odisseia, que nos leva através de um labirinto de inovações tecnológicas, dilemas éticos e competição global. A corrida para a AGI não é apenas uma corrida tecnológica; É uma corrida de ideias, valores e visões para o futuro da humanidade.

Desenvolvimentos recentes na busca de AGI

Um dos desenvolvimentos mais intrigantes na busca da AGI é o recente projeto Q* da OpenAI. Este projeto, revelado após uma controvérsia interna que levou à breve destituição de Sam Altman como CEO da OpenAI, aumentou as expectativas de um movimento significativo em direção à AGI. A preocupação expressa pelos pesquisadores da OpenAI sobre as ameaças potenciais de um "poderoso sistema de inteligência artificial" ressalta a escala e as implicações éticas dessa empreitada.

Definir a AGI tem sido um desafio em si. Vários especialistas ofereceram definições, geralmente vendo-a como uma inteligência artificial capaz de executar uma ampla gama de tarefas, semelhante ao cérebro humano. A OpenAI descreve a AGI como "sistemas altamente autônomos que superam os humanos em trabalhos economicamente mais valiosos". Uma equipe da DeepMind, em um esforço para definir esses conceitos, propôs uma estrutura para classificar as capacidades e comportamentos dos modelos AGI. Visa estabelecer uma linguagem comum para medir os progressos, comparar abordagens e avaliar riscos.

Em sua classificação dos níveis AGI, a equipe da DeepMind identificou vários níveis, desde "Nível 0, Sem AGI" até "Nível 5, Super-Humano". Modelos atuais como ChatGPT, Bard e Llama 2 só atingiram o "Nível 1, Emergente". Isso indica que, apesar dos avanços, ainda estamos longe de atingir um IAG completo. Programas como Siri, Alexa e Google Assistente estão no "Nível 2, Proficient", enquanto o AlphaFold da DeepMind, no "Nível 5, Super-Humano", representa o mais avançado neste espectro.

Estes avanços na definição e classificação da AGI são cruciais para compreender a sua trajetória e expectativas realistas. À medida que nos aproximamos de alcançar uma AGI, os desafios éticos e as considerações de segurança tornam-se cada vez mais importantes. Nesta corrida para a AGI, tal como em '2001: Uma Odisseia no Espaço', não só enfrentamos uma jornada de descoberta tecnológica, mas também uma jornada de introspeção e definição dos nossos valores e visões para o futuro.

Referências:

  1. "História e Evolução da AGI: Traçando o seu Desenvolvimento do Conceito Teórico ao Estado Atual – Just Think AI". Consultado em [data].
  2. «Relatório: A expulsão de Sam Altman pelo conselho da OpenAI seguiu-se a um potencial avanço da AGI – SiliconANGLE». Consultado em [data].
  3. "Inteligência geral artificial – Wikipédia". Consultado em [data].
  4. "As ideologias lutando pela alma (e futuro) da IA", de Charlie Guo.
  5. Informações adicionais sobre segurança de IA e as ideologias em jogo no desenvolvimento de AGI.

Publicado em

em

por

Etiquetas: