Publicidad
Revista Digital
Publicidad

La historia de Anthropic, el dueño de Claude que hace temblar a ChatGPT y se enfrenta a Trump

Anthropic es una empresa de Inteligencia Artificial conocida por el modelo Claude y confundida por un ex fundador de OpenAI. En su corta historia, ha confrontado al gobierno de EU.
mié 15 abril 2026 03:14 PM
La historia de Anthropic, el dueño de Claude que hace temblar a ChatGPT y se enfrenta a Trump
Según informes del Wall Street Journal, el Departamento de Defensa utilizó Claude AI de Anthropic, a través de su contrato con Palantir, para colaborar en el ataque a Venezuela y la captura del expresidente Nicolás Maduro. (Michael M. Santiago/Getty Images)

La historia de Anthropic parece sacada de un drama tecnológico. Una empresa de inteligencia artificial creada por un exfundador de otra compañía del ramo, OpenAI, pero con un enfoque cercano y necesario: una IA “segura y honesta”.

Sin embargo, el camino no ha sido sencillo. La compañía ha enfrentado varios dilemas que han puesto a prueba ese objetivo, desde retrasar el lanzamiento de su modelo Claude por temor a que pudiera ser utilizado para generar violencia, hasta tensiones con el gobierno de Estados Unidos relacionadas con el acceso y el control de sus modelos de inteligencia artificial.

Publicidad

Inicios de Anthropic: Dario Amodei y su pasado en OpenAI

Antes de fundar la empresa responsable de Claude, Dario Amodei pasó cinco años liderando la investigación en OpenAI, como vicepresidente del área, donde fue testigo de la capacidad de la IA para escalar exponencialmente en inteligencia y funcionalidad. Con ello, un dilema y riesgo potencial en la seguridad.

Consideraba que sin un enfoque responsable de la IA, que prioriza la confianza en el sistema como en las personas que lo desarrollan, no podrá alcanzar un potencial revolucionario positivo. En una entrevista del podcast Lex Fridman, afirmó que decidió irse de la compañía por una diferencia entre visiones.

“Es increíblemente improductivo intentar discutir con la visión de otra persona”. En lugar de quedarse en OpenAI, Amodei se dijo a sí mismo: “Busca gente de confianza y haz que tu visión se haga realidad”. En diciembre de 2020, se separó de la empresa.

Anthropic fue fundada en diciembre de 2021 en San Francisco, California, de acuerdo con Contrary Research por Dario y Daniela Amodei, quien había sido vicepresidenta de seguridad y políticas de OpenAI.

Junto a ellos, se les unieron otros exempleados de la misma compañía como Benjamin Mann (director de Anthropic Labs), Jared Kaplan (director científico), Jack Clark , Sam McCandlish (arquitecto jefe), Tom Brown y Christopher Olah (líder de investigación en interpretabilidad).

“Dentro de OpenAI, un grupo de nosotros, tras el desarrollo de GPT-2 y GPT-3, teníamos una convicción muy firme en dos aspectos… Uno era la idea de que si se invertía más capacidad de procesamiento en estos modelos, mejorarían cada vez más y que este proceso sería prácticamente ilimitado… El segundo era la idea de que se necesitaba algo más que simplemente aumentar la capacidad de procesamiento de los modelos: la alineación o la seguridad. No se les indica a los modelos cuáles son sus valores simplemente invirtiendo más capacidad de procesamiento. Así que éramos un grupo de personas que creíamos en estas dos ideas. Confiábamos plenamente los unos en los otros y queríamos trabajar juntos. Por eso, con esa idea en mente, fundamos nuestra propia empresa.”

En abril de 2022, la empresa presentó una metodología que utiliza un modelo de preferencias y aprendizaje por refuerzo a partir de retroalimentación humana para entrenar a asistentes de IA “útiles e inofensivos”, en su “IA Constitucional” , con principios éticos de la ONU, por ejemplo.

En toda su historia ha recaudado más de 57,000 millones de dólares, además también han participado empresas de capital de riesgo como Menlo Ventures y Lightspeed Venture Partners, así como firmas de los Emiratos Árabes Unidos y Catar.

Publicidad

La seguridad para Anthropic

La empresa fue estructurada como una corporación de beneficio público, priorizando que se garantice el uso de la IA en favor de la sociedad, pero también de que su consejo aumente las ganancias de los accionistas. De esta manera, Anthropic podría enfocarse en la seguridad y en la ética de la IA, incluso por encima del aumento de las ganancias.

Entre los pilares de la empresa, la seguridad es la que más destaca, afirmando que sus equipos trabajan constantemente para evaluar la fiabilidad de sus productos, así como los riesgos y resultados negativos de su IA.

“Creemos que la IA tendrá un gran impacto en el mundo. Anthropic se dedica a crear sistemas fiables y a generar investigaciones sobre las oportunidades y los riesgos de la IA”, menciona el sitio oficial en su presentación.

Un caso al respecto fue cuando, en febrero de 2025, decidieron posponer el lanzamiento del nuevo modelo de Claude 3.7 Sonnet, porque el equipo no estaba seguro en su seguridad, ya que existía el riesgo de poder ayudar a fabricar armas biológicas. Un artículo de la revista Time, narró cómo un equipo de Anthropic trabajaron en un hotel para prever escenarios que van desde ciberataques hasta amenazas a la bioseguridad.

Conflictos con Estados Unidos

La Casa Blanca ha criticado a Anthropic por su apoyo a regulaciones y a la seguridad de la IA, una postura que contrasta con el gobierno de Donald Trump en pro de la poca reglamentación.

La disputa ha sido sostenida tanto por representantes de la empresa como por miembros de la compañía, como la ocurrida en octubre de 2025, donde Jack Clark, cofundador y director de políticas de la empresa, compartió un el ensayo "Optimismo tecnológico y miedo apropiado", donde sostiene que demasiadas personas pretenden que la IA no puede amenazar a la humanidad.

Ante esto, David Sacks, líder de IA de la Casa Blanca, respondió afirmando que "Anthropic está ejecutando una sofisticada estrategia de captura regulatoria basada en el miedo", una confrontación que tiene que ver con las regulaciones estatales y federales.

La Casa Blanca apoya una moratoria de 10 años para las leyes de IA a nivel estatal, bajo el argumento de que las 50 reglas diferentes en los estados frenaría la innovación en tecnología en Estados Unidos frente a China.

Otro desacuerdo con Estados Unidos fue en 2025 a través del Departamento de Defensa que, tras recibir un contrato con valor de 200 millones de dólares, la empresa solicitó garantías de que su tecnología no se utilizaría en tareas de vigilancia doméstica ni en armas autónomas, algo que no aceptó el Pentágono.

Publicidad

Esto provocó una ola de declaraciones entre el gobierno y Anthropic, lo que derivó a que el presidente Donald Trump ordenara a otras agencias federales a interrumpir cualquier uso de la herramienta de la empresa.

Peter Hegseth, secretario de Defensa, incluso dijo que designaría a la compañía como un riesgo para la cadena de suministro de Estados Unidos y la seguridad nacional.

En marzo de 2026, fuentes anónimas citadas por The Financial Times, informaron que Amodei está en conversaciones con Emil Michael, subsecretario de defensa para investigación e ingeniería, con la finalidad de llegar a un acuerdo.

Durante esta controversia, OpenAI firmó con el Pentágono por un contrato de hasta 200 millones de dólares para prototipos de IA en áreas como ciberdefensa, salud militar y gestión administrativa, y después con un acuerdo para desplegar modelos en entornos clasificados en 2026.

Ese movimiento de la empresa OpenAI generó que usuarios de ChatGPT cancelaran su suscripción e incluso eliminaran la app. De acuerdo con Sensor Tower, las desinstalaciones de la app móvil de ChatGPT en Estados Unidos se dispararon 295% desde el 28 de febrero, en un movimiento muy por encima de su comportamiento normal.

Claude Mythos

Claude es el modelo clave de Anthropic, y recientemente presentó un modelo de habilidades avanzadas para identificar vulnerabilidades: Mythos . Sin embargo, la decidió no liberarlo al público y limitó su acceso a un grupo reducido de organizaciones, debido al nivel de riesgo que implica su uso fuera de entornos controlados.

Según un reporte de la compañía, el modelo puede identificar vulnerabilidades desconocidas y generar formas de explotarlas, lo que abre la posibilidad de que actores maliciosos lo utilicen para desarrollar ciberataques, acceder a sistemas sensibles o comprometer infraestructura crítica.

Aunque no fue hecho con un finalidad exclusiva de ciberseguridad, se le entrenó para realizar tareas generales como programación, análisis de código y resolución de problemas complejos. Tiene la capacidad de revisar grandes volúmenes de código, encontrar errores y proponer formas de explotarlos.

Por otra parte, un reporte de la agencia Bloomberg, el sistema Claude Mythos plantea retos en materia de seguridad cibernética, lo que causó preocupación entre los líderes del Departamento del Tesoro, la Reserva Federal de Estados Unidos (Fed) y principales actores de Wall Street, como los jefes de Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo.

Al momento de esta publicación, se desconocen las conclusiones de la reunión entre los actores.

Con información de Fernando Guarneros y Eréndira Reyes.

Newsletter

Únete a nuestra comunidad. Te mandaremos una selección de nuestras historias.

Publicidad

Publicidad