Ultraman não tem medo de sua mansão ser atacada; ele tem uma fortaleza.
Em 2016, Sam Altman construiu um bunker subterrâneo em Wyoming. Estrutura de 1.200 metros quadrados, com três andares, 500 kg de ouro, 5.000 comprimidos de iodeto de potássio, 5 toneladas de alimentos liofilizados, 100.000 balas. Naquele mesmo ano, a OpenAI havia acabado de comemorar seu primeiro aniversário.
Dez anos depois, o líder da empresa de IA mais poderosa do mundo foi atacado em dois fins de semana seguidos, primeiro com um coquetel molotov e depois com tiros. Em uma postagem no blog, ele admitiu ter subestimado gravemente o "poder da narrativa". A narrativa de quem ele estava se referindo, de outra pessoa ou da dele?
48 Horas, Dois Ataques
Às 3h40 da manhã de 10 de abril, na Chestnut Street, em São Francisco. Um homem de 20 anos, Daniel Moreno-Gama, jogou um coquetel molotov no portão de metal do apartamento de Sam Altman. O fogo se acendeu perto do portão externo, e ele fugiu. Cerca de uma hora depois, o mesmo indivíduo apareceu perto do escritório da OpenAI em São Francisco, continuando a ameaçar com incêndio criminoso e foi posteriormente preso. As acusações incluíam tentativa de homicídio e incêndio criminoso.

Residência de Sam Altman em São Francisco e filmagem de vigilância do suspeito de incêndio criminoso
Dois dias depois, às 1h40 da manhã de 12 de abril, um sedan Honda estacionado ao lado da residência de Altman, na área de Russian Hill. Um passageiro no carro estendeu a mão pela janela e disparou um tiro em direção à residência. As imagens de vigilância capturaram a placa do carro, levando à prisão de dois indivíduos: Amanda Tom (25) e Muhamad Tarik Hussein (23). Três armas foram encontradas durante uma busca na residência, e os dois foram acusados de descarte imprudente de uma arma de fogo.
Um fim de semana, dois ataques.
O suspeito no primeiro caso, Daniel Moreno-Gama, era um profeta da desgraça da IA. Ele citava temas de humano vs. máquina de "Duna" nas redes sociais, escrevia artigos argumentando que a falha no alinhamento da IA representava um risco existencial, criticava os líderes da tecnologia por perseguir o "hiper-humanismo" e fazer uma "aposta total no destino da humanidade".
Qual era o argumento dele?
Nos últimos cinco anos, uma das estratégias padrão da OpenAI na construção da narrativa em torno da IA é enfatizar repetidamente a ameaça "existencial" da AGI. Este discurso serve a múltiplos propósitos: instar os governos a levar a regulamentação a sério, ajudar os investidores a entenderem as apostas e fazer com que toda a indústria perceba que essa corrida é muito importante para ser perdida. Esta narrativa serve a uma função, posicionando a OpenAI como simultaneamente na fronteira do perigo, a mais responsável e, portanto, a destinatária legítima do financiamento.
No entanto, a frase "esta é a tecnologia mais perigosa da história da humanidade" não ficará apenas nos círculos de tecnologia e investidores assim que for divulgada. Ela se espalhará e se tornará um apelo à ação literal para alguns. Moreno-Gama escreveu em uma postagem: "Progresso exponencial mais desalinhamento iguala risco existencial." A fonte original deste enquadramento argumentativo é a literatura dominante sobre a segurança da IA, em grande parte financiada ou endossada pela OpenAI.

Conta de mídia social de Daniel Moreno-Gama
Após o primeiro ataque, Ultraman escreveu um blog. Ele postou uma foto com seu filho, dizendo que esperava que essa foto impedisse que a próxima pessoa jogasse um coquetel molotov em sua casa. Ele reconheceu a "posição moral legítima" dos oponentes e pediu uma discussão pública "com um pouco menos de explosividade, tanto no sentido literal quanto no metafórico".
Ele também respondeu a um New Yorker Mergulho profundo. O artigo, publicado dias antes do ataque, questionou abertamente sua credibilidade como a maior autoridade em IA. Ele escreveu: "Subestimei gravemente o poder da narrativa e do discurso público".
Dois dias depois, sua residência foi alvejada.
Orçamento de Segurança É uma Declaração; um Bunker É Outro
O ponto de partida dessa trajetória é um ano antes do que a maioria das pessoas percebe.
4 de dezembro de 2024, Nova York. O CEO da UnitedHealthcare, Brian Thompson, foi baleado do lado de fora do Hotel Hilton. O suspeito Luigi Mangione, um graduado da Ivy League, deixou para trás uma declaração manuscrita criticando a indústria de seguros de saúde. O caso provocou uma onda incomum de reações nas redes sociais: um número substancial de usuários comuns expressou abertamente simpatia pelo criminoso, até mesmo transformando-o em uma espécie de símbolo rebelde.
Naquele momento, algumas portas foram abertas.
Após o incidente de Thompson, a segurança executiva deixou de ser um "benefício" para se tornar uma "necessidade de sobrevivência". De acordo com os dados de pesquisa citados por Sorte revista, desde 2023, houve um aumento de 225% nos ataques de crimes violentos contra altos executivos corporativos. No S&P 500, 33,8% das empresas relataram despesas com segurança executiva em seus relatórios financeiros em 2025, acima dos 23,3% em 2020. As empresas que fornecem serviços de segurança tiveram um custo médio de $130.000, um aumento de 20% em relação ao ano anterior, dobrando em cinco anos.
A indústria de IA é a mais recente e proeminente beneficiária dessa tendência. O total de gastos com segurança dos CEOs dos dez maiores gigantes da tecnologia em 2024 ultrapassou US$ 45 milhões. Só Mark Zuckerberg ultrapassou US$ 27 milhões, mais do que a soma das despesas de segurança de outros quatro CEOs, como Apple e Google. Jensen Huang, da NVIDIA, teve US$ 3,5 milhões em 2025, um aumento de 59% em relação ao ano anterior. Sundar Pichai, do Google, teve US$ 8,27 milhões, um aumento de 22%.
A indústria de IA tem algo único que poucas outras indústrias têm: até os próprios criadores acreditam que essa tecnologia poderia destruir a civilização. Em 2025, o Pew Research Center entrevistou 28.333 respondentes em todo o mundo, com apenas 16% expressando entusiasmo sobre o desenvolvimento da IA e 34% expressando preocupação. Uma descoberta contraintuitiva foi que, quanto maior o nível de educação e renda, maior a preocupação com a IA descontrolada. Os mais conhecedores são os mais assustados.
Recentemente, a casa do conselheiro da cidade de Indianápolis, Ron Gibson, foi alvejada por um atirador que disparou 13 tiros no meio da noite, acordando seu filho de 8 anos. Uma nota manuscrita foi deixada na porta, dizendo: "Não são permitidos centros de dados". O FBI interveio na investigação. Jordyn Abrams, uma pesquisadora do Programa de Extremismo da Universidade George Washington, apontou que os centros de dados estão se tornando alvos de extremistas anti-tecnologia e anti-governo.

Cena do Tiroteio de Ron Gibson
Esse medo não é um segredo dentro da indústria; é só que não é discutido abertamente.
Ultraman construiu a fortaleza em Wyoming em 2016. Naquele ano, a OpenAI havia sido anunciada, delineando ao mundo como a IA beneficiaria a humanidade. Ambos os eventos coincidiram: ele apostou publicamente que a IA teria sucesso enquanto, em particular, acumulava munição suficiente para apoiar uma milícia armada.
Esta foi uma aposta dupla racional: apostar publicamente no sucesso da IA e, em particular, preparar-se para a IA se tornar descontrolada.
O Bumerangue de Ultraman
Em 27 de fevereiro deste ano, a OpenAI assinou um contrato com o Departamento de Defesa dos EUA, permitindo que o Pentágono implantasse o ChatGPT em uma rede de defesa classificada para uso em "qualquer propósito legal". No mesmo dia, o Ultraman também endossou publicamente a posição da Anthropic sobre os limites para aplicações militares de IA. Consequentemente, a taxa diária de desinstalação do ChatGPT subiu 295% e as avaliações de uma estrela aumentaram 775% em 24 horas. O movimento de boicote QuitGPT teria acumulado mais de 1,5 milhão de participantes.
Em 21 de março, cerca de 200 manifestantes marcharam em São Francisco, abrangendo a Anthropic, a OpenAI e a xAI, exigindo que os CEOs das três empresas se comprometessem a pausar o desenvolvimento de IA de ponta. Concomitantemente, Londres presenciou seu maior protesto anti-IA até o momento.
O reduto de Ultraman em Wyoming e o serviço de segurança que ele emprega abordam dois riscos distintos, um de pessoas de fora e outro do que ele mesmo está construindo. Ele leva ambos os riscos a sério em particular, mas reconhece apenas um em público.
A semana do primeiro ataque, The New Yorker publicou uma análise aprofundada sobre o Ultraman. Os jornalistas Ronan Farrow e Andrew Marantz entrevistaram mais de 100 fontes, com a tese central destilada em apenas duas palavras: desconfiança. O artigo citou um ex-membro do conselho da OpenAI, que rotulou Ultraman como uma "personalidade antissocial", "desvinculada da verdade". Vários ex-colegas descreveram suas posições mutáveis sobre a segurança da IA, muitas vezes remodelando as estruturas de poder conforme necessário.
Em sua resposta no blog, Ultraman admitiu ter uma tendência "evitadora de conflitos". Ele havia criado uma narrativa pública de "IA como uma ameaça existencial" como uma ferramenta para arrecadação de fundos e manobras regulatórias. Como resultado, essa ferramenta escapou de suas mãos, fez um circuito e voltou a bater em sua porta.
Você também pode gostar

Straits Blockade, Stablecoin Recap | Rewire Notícias Edição da manhã

Governador da Califórnia Assina Ordem para Banir Insider Trading em Mercados de Previsão
O Governador da Califórnia, Gavin Newsom, assinou uma ordem executiva para coibir o uso de informações privilegiadas em…

De altas expectativas a reviravolta controversa, o Airdrop da Genius desencadeia reação negativa da comunidade

A fábrica de veículos elétricos da Xiaomi no distrito de Daxing, em Pequim, tornou-se a nova Jerusalém para a elite americana

Equipamento leve, habilidade avançada: A verdadeira fonte de um aumento de 100 vezes na produtividade com IA

Negociações entre EUA e Irã fracassam; Bitcoin enfrenta batalha para defender a marca de US$ 70.000

Reflexões e Confusões de um Crypto VC

Notícias da Manhã | Ether Machine cancela acordo de SPAC no valor de US$ 1,6 bilhão; SpaceX detém aproximadamente US$ 603 milhões em Bitcoin; Michael Saylor divulga novamente informações sobre o Bitcoin Tracker

Previsão das notícias desta semana | Os EUA divulgarão os dados do IPP de março; o presidente francês Macron fará um discurso na Paris Blockchain Week

Crypto ETF Semanal | Na semana passada, o influxo líquido para ETFs de Bitcoin à vista nos EUA foi de 816 milhões de dólares; o influxo líquido para ETFs de Ethereum à vista nos EUA foi de 187 milhões de dólares

Como funciona a autocustódia de ativos digitais? Lista de verificação em 15 etapas do cofundador da OpenAI

Diretor de Gestão de Produtos da Circle: O futuro da interoperabilidade entre cadeias: Construindo uma pilha de tecnologias de interoperabilidade para sistemas financeiros na Internet
Guia de Tokens de Torcedores do UCL 2026: Como Negociar Criptomoedas da Liga dos Campeões da UEFA com Taxas Zero no WEEX
Descubra tokens de torcedores do UCL como PSG, Barcelona e Man City. Aprenda a negociar criptomoedas da Liga dos Campeões da UEFA com taxas zero e ganhe recompensas no WEEX.
WEEX Poker Party 2ª Temporada: Veja agora como ganhar recompensas em criptomoedas!
Saiba como funciona a 2ª temporada do WEEX Poker Party (Evento Joker Card). Descubra as regras, a pontuação, as recompensas e as estratégias para ganhar recompensas em criptomoedas por meio da negociação gamificada.

Yu Weiwen: Desenvolvimento constante do ecossistema de stablecoins em conformidade com a regulamentação de Hong Kong

Após o cessar-fogo do TACO, a guerra contra o Irã está apenas em pausa

5 minutos para transformar a IA no seu segundo cérebro

O mistério de 17 anos será desvendado: quem é Satoshi Nakamoto?
Straits Blockade, Stablecoin Recap | Rewire Notícias Edição da manhã
Governador da Califórnia Assina Ordem para Banir Insider Trading em Mercados de Previsão
O Governador da Califórnia, Gavin Newsom, assinou uma ordem executiva para coibir o uso de informações privilegiadas em…
