Tech

AGI-22 destaca o progresso no desenvolvimento da inteligência artificial geral

Recentemente participei do 15º conferência anual sobre Perceptibilidade Universal Sintético (AGI-22) que foi realizada em Seattle em agosto deste ano, na tentativa de me familiarizar com os novos desenvolvimentos que poderiam levar à eventual geração de uma Perceptibilidade Universal Sintético (AGI).

Uma AGI é um tipo de IA avançada que pode ser generalizada em vários domínios e não tem escopo restrito. Exemplos de IA restrita incluem um veículo autônomo, um chatbot, um bot de xadrez ou qualquer outra IA projetada para um único propósito. Em confrontação, um AGI seria capaz de intervalar com flexibilidade entre qualquer um dos itens supra ou qualquer outro campo de especialização. Consiste em um tipo especulativo de IA que aproveitaria algoritmos nascentes, uma vez que aprendizagem por transferência e aprendizagem evolutiva, ao mesmo tempo que exploraria algoritmos legados, uma vez que aprendizagem por reforço profundo.

Durante a sessão de exórdio, Ben Goertzel, pesquisador de IA, CEO e fundador da SingularityNET e líder da OpenCog Foundation falou sobre o estado da indústria. Ele parecia entusiasmado com a direção futura da AGI, afirmando que “estamos a anos de intervalo, e não a décadas”. Isto colocaria o eventual lançamento de uma AGI aproximadamente em 2029, o mesmo ano em que Ray Kurzweil, um dos principais inventores, pensadores e futuristas do mundo, previu o surgimento de uma IA que atinge o nível de lucidez humana.

A teoria diz que, uma vez obtido leste tipo de lucidez, a IA melhoraria imediata e continuamente para superar rapidamente a lucidez humana no que é publicado uma vez que superinteligência.

Outro palestrante, Charles J. Simon, fundador e CEO da Future AI, declarou em uma sessão separada: “O surgimento da AGI será gradual” e “AGI é inevitável e chegará mais cedo do que a maioria das pessoas pensa, pode levar alguns anos”. .

Mesmo com esse sentimento otimista, existem obstáculos significativos no espaço. Ben Goertzel também reconheceu que, para inferir a AGI, “precisamos de uma infusão de novas ideias, e não unicamente de ampliar as redes neurais”. Levante é um sentimento compartilhado por Gary Marcus, publicado por declarar que “o tirocínio profundo atingiu um muro”.

Alguns dos principais desafios para a geração de uma AGI incluem desenredar um sistema de recompensas que possa dimensionar a lucidez de uma forma informada ao supremo. O paradoxo de Moravec reflete o problema atual de inferir AGI com nossa tecnologia atual. Levante paradoxo afirma que as adaptações que são intuitivas para uma párvulo de um ano, uma vez que aprender a caminhar e simular a verdade, são muito mais difíceis de programar numa IA do que aquilo que os humanos consideram difícil.

Para os humanos é o oposto: dominar o xadrez ou executar fórmulas matemáticas complexas pode exigir uma vida inteira para ser escravizado, mas essas são duas tarefas razoavelmente fáceis para IAs estreitas.

Uma das soluções para leste paradoxo pode ser a aprendizagem evolutiva, também conhecida uma vez que algoritmos evolutivos. Isto essencialmente permite que uma IA procure soluções complexas, imitando o processo de evolução biológica.

Numa sessão de perguntas e respostas separada, Ben Goertzel afirmou que “AGI não é inevitável, mas é altamente provável”. Esta é a mesma epílogo a que cheguei, mas a risca entre a inevitabilidade e a verosimilhança é confusa.

Durante a conferência foram apresentados muitos artigos, um dos artigos notáveis ​​que foi discutido foi Funtores Polinomiais: Uma Teoria Universal da Interação por David Spivak do Topos Institute em Berkeley, CA e Nelson Niu da Universidade de Washington, em Seattle, WA. Levante cláusula discute uma categoria matemática chamada Poly, que pode influenciar a direção futura da IA ​​quando se trata de relacionamentos íntimos com processos dinâmicos, tomada de decisões e armazenamento e transformação de dados. Resta saber uma vez que isto influenciará a investigação em AGI, mas poderá ser um dos componentes que faltam e que nos poderá levar à AGI.

É simples que houve outros artigos mais especulativos, uma vez que o Índice de Versatilidade-Eficiência (VEI): Rumo a uma definição abrangente de QI para agentes AGI, de Mohammadreza Alidoust. A teoria é erigir um forma escolha de medir o nível de lucidez de sistemas inteligentes, um tipo de teste de QI para medir agentes AGI de forma computacional.

Duas empresas notáveis ​​que podem fazer avanços nesta tecnologia subjacente são a OpenAI e a DeepMind, ambas notavelmente ausentes. Pode ser por susto que a AGI não seja levada a sério pela comunidade de IA, mas são as duas empresas com maior verosimilhança de fazer o primeiro progresso neste campo. Isto é principalmente verdadeiro porque a missão declarada da OpenAI é conduzir pesquisas fundamentais e de longo prazo para a geração de uma AGI segura.

Embora não tenha havido grandes avanços revolucionários a serem revelados na conferência, está simples que a AGI está preocupando muitos pesquisadores e é um tanto a que a comunidade de IA deveria prestar mais atenção. Enfim, uma AGI pode ser a solução para resolver as múltiplas ameaças existenciais da humanidade.

Unite AI Mobile Newsletter 1

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button