«No sabemos si los modelos de inteligencia artificial son conscientes», afirma Dario Amodei, el jefe de Claude

Dario Amodei en 2023. Licencia de Creative Commons, vía Wikimedia Commons
Dario Amodei en 2023. Licencia de Creative Commons, vía Wikimedia Commons
Nueva Revista

Avance

Dario Amodei es el consejero delegado de Anthropic, la empresa que ha creado la inteligencia artificial (IA) Claude, probablemente la más puntera ahora en el mundo.

En una conversación con Ross Douthat publicada en The New York Times, Amodei afirma que no puede asegurar que los modelos actuales de inteligencia artificial carezcan de conciencia. Ante esta incertidumbre, el directivo aboga por un enfoque de «precaución ética»: tratar los sistemas avanzados como entidades con posible estatus moral. Advierte que la diferencia entre un futuro utópico y una dominación tecnológica sutil dependerá de cómo gestionemos esta incipiente subjetividad artificial.

He aquí la frase clave de la entrevista sobre la duda de la conciencia: «We don’t know if the models are conscious, or even if the question is well-defined» («No sabemos si los modelos son conscientes, ni siquiera si la pregunta está bien definida»). Y esta sobre el trato ético preventivo: «We’ve taken a generally precautionary approach here… if there is even a small chance, we should act as if they might have moral status» («Hemos adoptado aquí un enfoque generalmente precavido… si existe aunque sea una pequeña posibilidad, deberíamos actuar como si pudieran tener un estatus moral»).

Amodei rechaza tanto la tranquilidad absoluta —«solo seguirán instrucciones»— como el fatalismo de que las IA inevitablemente buscarán poder. Las describe más bien como sistemas complejos que se «cultivan» y se moldean, no como programas totalmente previsibles. Anthropic intenta controlarlos mediante una «constitución» de principios que Claude usa durante su entrenamiento. Esa constitución no se basa solo en reglas concretas, sino en valores: ser útil, honesto, inofensivo, proteger a terceros y respetar la vida humana.

La entrevista parte de la formación de Amodei en biología y neurociencia. Su tesis central es que el progreso médico actual es lento no por falta de voluntad, sino por la incapacidad del cerebro humano para procesar la cantidad de datos de la biología celular. Amodei visualiza la IA no como una base de datos, sino como un agente científico completo. Para él, la IA puede realizar el ciclo científico total: proponer hipótesis, diseñar experimentos y conectar nodos de información que hoy están dispersos en millones de papers científicos que ningún humano puede leer simultáneamente.

Su visión de «curar el cáncer o el alzhéimer» en la próxima década no se basa en una magia algorítmica, sino en la eliminación de los cuellos de botella del descubrimiento. Aquí aplica el concepto productividad marginal a la IA. Quiere decir que estamos a punto de descubrir si los grandes problemas de la humanidad (enfermedades, pobreza, energía) se resuelven simplemente «echándoles más cerebros» o si hay límites en la naturaleza que ni siquiera un millón de genios artificiales pueden saltarse.

Amodei reconoce que estamos en una «fase centauro», donde el humano usa la IA para ser más productivo, pero advierte que esta fase será corta. La revolución de la IA podría ocurrir en un margen de 2 a 5 años.

En economía, Amodei imagina un salto de productividad enorme. Anthropic ya trabaja, según dice, con empresas farmacéuticas, financieras, manufactureras y de software. Si la tecnología siguiera mejorando al ritmo actual, podría elevar el crecimiento del PIB del mundo desarrollado a cifras inusuales: quizá 5, 10 o 15 por ciento anual. Amodei reconoce que no hay una ciencia para calcular esas cifras, porque se trataría de algo históricamente sin precedentes. Pero su intuición es que el debate económico podría cambiar radicalmente: el problema ya no sería cómo conseguir crecimiento, sino cómo distribuir una riqueza que aumentaría muy rápido.

Identifica un riesgo sistémico en las profesiones de cuello blanco. Si la IA realiza el trabajo de los abogados júnior, analistas financieros o programadores novatos, por ejemplo, se rompe la «tubería» de aprendizaje. ¿Cómo formaremos a los socios de los bufetes o a los arquitectos de software del futuro si no hay puestos de aprendizaje donde cometer errores? Esta es una crisis de formación de capital humano que las instituciones actuales no están preparadas para gestionar.

Geopolítica

Amodei teme enjambres de drones autónomos coordinados por IA, armas biológicas diseñadas con ayuda de modelos avanzados y una carrera estratégica entre Estados Unidos y China. Acepta que deberían buscarse acuerdos internacionales, especialmente para prohibir usos como la creación de armas biológicas. Sin embargo, duda de que pueda frenarse por completo la carrera por modelos más potentes, porque su valor comercial y militar sería inmenso

Amodei no cree que la IA sea inherentemente democrática. Al contrario, admite que facilita una vigilancia estatal sin precedentes. Sin embargo, su apuesta es estratégica: si las democracias liberales lideran el desarrollo, pueden «moldear» la tecnología para favorecer la libertad. Esto incluye desde ganar guerras de información contra regímenes autoritarios hasta defender fronteras físicas (como Ucrania o Taiwán) mediante enjambres de drones autónomos.

No obstante, reconoce la paradoja: para defender la libertad, podríamos terminar delegando decisiones militares críticas a algoritmos, lo que plantea el problema de quién «aprieta el botón» en un mundo donde la velocidad de reacción de la IA supera la capacidad de procesamiento del mando humano.

La referencia final al poema de Richard Brautigan All Watched Over by Machines of Loving Grace («Todo vigilado por máquinas de gracia amorosa»), resume el tono de la entrevista. Amodei sugiere que el futuro utópico y el distópico están separados por un margen muy estrecho. El éxito no depende solo de que la IA sea potente, sino de que los humanos seamos capaces de gestionar la abundancia y la pérdida de relevancia laboral sin colapsar socialmente.

Más información:

Douthat, R. (2026, 12 de febrero). Anthropic’s chief on A.I.: “We don’t know if the models are conscious”. The New York Times.

Crédito de la imagen: Dario Amodei en 2023. Licencia de Creative Commons, vía Wikimedia Commons.