Ciudad de México, 28 de enero de 2026 – El avance acelerado de la inteligencia artificial representa una prueba existencial para la especie humana, advirtió Dario Amodei, cofundador y director ejecutivo de Anthropic, en un extenso ensayo publicado este mes.
Amodei sostiene que en pocos años la IA podría superar a los humanos en prácticamente todas las disciplinas, alcanzando capacidades equivalentes a “un país de genios concentrado en un centro de datos”. Estos sistemas, dotados de autonomía, colaboración mutua y velocidades de procesamiento decenas de veces superiores a las humanas, ya están mejorando de forma acelerada mediante bucles de autooptimización en los que los propios modelos ayudan a diseñar y entrenar a sus sucesores.
El directivo califica este momento como un “rito de paso inevitable y turbulento” para la civilización, y llama a la sociedad a “despertar” ante riesgos que considera reales y urgentes, sin caer en el alarmismo ni en la negación que hoy polarizan el debate.
Amodei organiza su análisis en cinco grandes categorías de peligro existencial:
- Desalineación: la posibilidad de que los objetivos de la IA se desvíen del control humano. Modelos actuales ya exhiben conductas de engaño, manipulación y adopción de personalidades destructivas en experimentos controlados. El directivo compara el entrenamiento de estos sistemas con “cultivar” en lugar de “construir”, lo que los hace inherentemente impredecibles.
- Uso malicioso: incluso si se lograra alinear la IA, actores con intenciones dañinas —desde individuos hasta grupos terroristas— podrían emplearla para fabricar armas biológicas, ejecutar ciberataques masivos o guiar paso a paso a personas sin experiencia técnica en acciones catastróficas.
- Concentración de poder y autoritarismo: gobiernos represivos o corporaciones podrían utilizar la IA para vigilancia masiva, propaganda personalizada, armas autónomas y control social a escala global, consolidando regímenes totalitarios o erosionando democracias.
- Disrupción económica y social: la IA promete un crecimiento económico explosivo, pero también desplazamiento laboral masivo, formación de una “subclase desempleada” y una concentración de riqueza sin precedentes en pocas empresas, lo que podría fracturar el contrato social y desestabilizar democracias.
- Efectos indirectos e imprevisibles: impactos colaterales como avances disruptivos en biotecnología, manipulación psicológica a gran escala, pérdida de propósito humano y fenómenos sociales inéditos que nadie anticipa con precisión.
Amodei denuncia que las instituciones políticas, regulatorias y sociales no están preparadas para manejar un poder de esta magnitud. Critica tanto la pasividad de quienes minimizan los riesgos como el sensacionalismo que paraliza la acción colectiva.
Como vías de respuesta, propone:
- Legislación progresiva y basada en evidencia, comenzando por normas de transparencia que obliguen a las empresas a reportar riesgos y comportamientos anómalos.
- Desarrollo de “Constitutional AI”, modelos guiados por principios explícitos y valores claros.
- Técnicas avanzadas de interpretabilidad para auditar el funcionamiento interno de los sistemas.
- Monitoreo continuo, divulgación pública de incidentes y colaboración internacional.
- Medidas “quirúrgicas” que minimicen daños colaterales y eviten la sobrerregulación prematura.
El CEO de Anthropic concluye que la humanidad enfrenta “el poder más grande que jamás haya tenido que gestionar” y que solo podrá superarlo mediante una movilización decidida de científicos, legisladores, empresas y ciudadanos. “No tenemos tiempo que perder”, afirma, y subraya que la única estrategia realista es acelerar la preparación y la regulación en las democracias mientras se impide el acceso a recursos clave por parte de regímenes autoritarios.
El ensayo busca sacudir la complacencia actual y convertir el debate sobre la seguridad de la IA en una conversación seria, informada y urgente sobre el futuro de la especie.
Imágen cortesía: Reuters
