Yoshua Benzio (L) e Max Tagmark (R) discutiram o desenvolvimento da inteligência geral artificial durante a gravação do podcast ao vivo do “Vale Bind the Valley” da CNBC na Suíça em janeiro de 2021.

CNBC

Inteligência geral artificial como “agentes” pode ser perigosa porque seus fabricantes podem perder o controle do sistema, disseram dois dos cientistas de IA mais proeminentes do mundo.

No último episódio da CNBC “Além do vale” Na terça -feira, o Professor do Presidente do Instituto de Tecnologia e Life do Instituto de Vida, Massachusetts, Max Tagmark e Presidente do Instituto de Vida e Joshua Benjio, um dos “padrinhos da IA” e professor da Universidade de Montreal, foram publicados em podcast. O termo refere -se aos sistemas de IA que são mais inteligentes que os humanos.

Seus medos são agora das maiores empresas do mundo, falando sobre “agentes de IA” ou “agentes da IA” – que as empresas alegaram que a AI Chatboat funcionará como útil ou agentes e permitirá trabalho e ajuda na vida cotidiana. A estimativa da indústria é diferente sobre quando a AGI existe.

De acordo com Benzio, a idéia vem com a idéia de que alguns dos sistemas de IA “agências” e podem ter seus próprios pensamentos.

“Os pesquisadores da IA ​​foram inspirados a criar inteligência de máquinas pela inteligência humana e em humanos, intelecto puro e comportamento agêntico, o que significa … Ambos a capacidade do mundo de usar seu conhecimento para alcançar objetivos são uma mistura”, diz Benjio “sobre o vale da CNBC “.

“No momento, é assim que estamos criando a AGI: estamos tentando criar um agente que entenda muito sobre o mundo e depois pode agir de acordo. Mas essa é realmente uma oferta muito perigosa”.

Benzio acrescentou que esse método seria como “criar uma nova espécie ou uma nova entidade fofa neste planeta” e “eles não sabem se concordarem com nossas necessidades”.

“Então, em vez disso, podemos considerar que as situações que acontecem mal e todas dependem das agências? Em outras palavras, porque a AI tem seus próprios objetivos de que podemos ter problemas”.

Benjio disse que a idéia de auto-sacrifício também pode ser chutada, pois a IA se tornou mais inteligente, disse Benjio.

“Queremos competir com entidades inteligentes do que nós? Este não é um jogo muito seguro, não é? Então, temos que entender como a IA de auto-autônomo pode emergir como uma meta”.

As ferramentas de IA são a chave

Para o tagmark do MIT, o original está no chamado sistema de sistemas “equipamentos AI” criado para um objetivo específico e definido, mas não deve ser um agente.

Tagmark disse que uma ferramenta IA pode ser um sistema que informa como curar o câncer, ou algo que “algumas agências” são “veículo autônomo”, onde você pode provar ou obter uma garantia mais alta e verdadeiramente confiável que ainda vai ser capaz de controlar isso.

Tagmark disse: “Eu acho que, em uma nota otimista, aqui podemos ser encorajados com quase tudo com a IA … se simplesmente vendermos o forte sistema de IA, se apenas enfatizarmos ter alguns valores básicos de segurança”, disse Tagmark.

“Eles precisam mostrar que podemos mantê -los sob controle. A indústria inovará rapidamente para determinar como fazer melhor”.

O Future of Life Institute da Tagmark pediu uma quebra no desenvolvimento de sistemas de IA em 2021, que poderia competir com os detetives em nível humano. Embora isso não tenha acontecido, Tagmark disse que as pessoas estavam falando sobre o assunto e agora é hora de tomar medidas para determinar como os guardiões podem ser estabelecidos para controlar a AGI.

Tagmark disse no “vale over” da CNBC, “então pelo menos muitas pessoas estão falando sobre a discussão. Temos que ver se podemos passear com eles”.

“É claramente insano fazer algo mais inteligente do que nós antes de determinar como controlá -lo”.

Existem várias visualizações sobre quando a AGI virá, parcialmente alimentada por diferentes definições.

O diretor executivo do OpenAI, Sam Altman, diz que sua empresa sabe como a AGI pode criar e diz que reduziu a influência da tecnologia, embora seja alcançada mais cedo do que as pessoas.

“Acho que pensaremos na maioria das pessoas no mundo e isso vai doer AGI mais cedo do que seria muito menos importante”, Ultman D Em dezembro

Link da fonte