# A superinteligência AI pode se tornar uma catástrofe — Vitalik Buterin
A humanidade não está lidando suficientemente bem com a harmonização dos valores globais para garantir que a inteligência artificial superinteligente trabalhe para o bem de todas as pessoas. Essa declaração foi feita pelo cofundador da Ethereum Vitalik Buterin.
Ele comentou a postagem do artista 3D com o nick Utah teapot.
Como a alinhamento de IA é até mesmo uma coisa? Todos estão sempre perguntando "alinhado a quê" e ninguém nunca tem uma resposta além de "valores humanos". Valores humanos coerentes e auto-consistentes não existem. Eu ainda não entendo. O que estamos pesquisando? É ridículo que isso esteja crescendo…
— chaleira de Utah 🫖 (@SkyeSharkie) 24 de agosto de 2025
«Como pode existir o conceito de alinhamento de IA? Eu sempre pergunto: “alinhamento com o que?”. Ninguém nunca responde nada além de “com os valores humanos”. Mas não existem valores humanos inteiros e coerentes. Eu ainda não entendo. O que estamos realmente pesquisando? É absurdo que isso se transforme em uma indústria crescente. Trabalho fictício», escreveu ele.
Buterin destacou que existem muitas coisas no mundo que vão contra os princípios éticos. Como exemplo, ele citou o assassinato ou a prisão de inocentes.
«[…] Ainda não somos bons o suficiente na coordenação para garantir que uma única superinteligência AI evite até isso», acrescentou o desenvolvedor.
O bule de Utah destacou que o desenvolvimento da inteligência artificial consensual está a caminhar na direção de restringir o acesso público ao desenvolvimento. Ao mesmo tempo, grandes empresas vendem versões dos seus sistemas de IA que fomentam fenómenos negativos e atuam como ferramentas de guerra.
«Estou profundamente preocupado com o fato de que a centralização do acesso às tecnologias de IA permite impor como questões de segurança aquilo que na verdade não é — por exemplo, as discussões em torno da “psicose” dos LLM. Assim, há o risco de prejudicar culturas únicas ou marginais e seus valores», observou o usuário.
Buterin compartilha muitas dessas preocupações.
"Acho que os maiores riscos virão de militares e outras estruturas que possuem grande poder, permitindo-lhes se isentarem das regras de segurança que, por padrão, se aplicam a todos os outros", acrescentou o cofundador do Ethereum.
O bule de Utah foi citado como exemplo pela startup de IA Anthropic. Ela está desenvolvendo versões alternativas de modelos "civis" e os fornece a governos. Estes podem ser utilizados para ações militares ou de inteligência.
Buterin destacou que a probabilidade de um cenário catastrófico para a humanidade devido à IA aumenta se houver apenas uma única inteligência artificial superinteligente, que possua vontade própria e capacidade de agir como sujeito.
Se o ambiente for pluralista, nenhuma das sistemas poderá controlar totalmente a situação. No entanto, para sua criação, apenas mecanismos de mercado não são suficientes. São necessários esforços intencionais, incluindo mudanças nas leis e incentivos que não agradarão às grandes corporações.
Recordamos que, em 2022, o ministro das tecnologias da informação da Índia, Rajiv Chandrasekhar, apelou ao desenvolvimento de padrões globais que garantam a segurança da IA para o ser humano.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A IA superinteligente pode se tornar uma catástrofe — Vitalik Buterin
A humanidade não está lidando suficientemente bem com a harmonização dos valores globais para garantir que a inteligência artificial superinteligente trabalhe para o bem de todas as pessoas. Essa declaração foi feita pelo cofundador da Ethereum Vitalik Buterin.
Ele comentou a postagem do artista 3D com o nick Utah teapot.
Buterin destacou que existem muitas coisas no mundo que vão contra os princípios éticos. Como exemplo, ele citou o assassinato ou a prisão de inocentes.
O bule de Utah destacou que o desenvolvimento da inteligência artificial consensual está a caminhar na direção de restringir o acesso público ao desenvolvimento. Ao mesmo tempo, grandes empresas vendem versões dos seus sistemas de IA que fomentam fenómenos negativos e atuam como ferramentas de guerra.
Buterin compartilha muitas dessas preocupações.
O bule de Utah foi citado como exemplo pela startup de IA Anthropic. Ela está desenvolvendo versões alternativas de modelos "civis" e os fornece a governos. Estes podem ser utilizados para ações militares ou de inteligência.
Buterin destacou que a probabilidade de um cenário catastrófico para a humanidade devido à IA aumenta se houver apenas uma única inteligência artificial superinteligente, que possua vontade própria e capacidade de agir como sujeito.
Se o ambiente for pluralista, nenhuma das sistemas poderá controlar totalmente a situação. No entanto, para sua criação, apenas mecanismos de mercado não são suficientes. São necessários esforços intencionais, incluindo mudanças nas leis e incentivos que não agradarão às grandes corporações.
Recordamos que, em 2022, o ministro das tecnologias da informação da Índia, Rajiv Chandrasekhar, apelou ao desenvolvimento de padrões globais que garantam a segurança da IA para o ser humano.