Inteligencias Artificiales y Nuevos Patógenos: El Temor Silencioso de la Era Digital


Las advertencias recientes de Sam Altman sobre la posibilidad de que la inteligencia artificial facilite la creación de nuevos patógenos han reabierto un debate inquietante: ¿estamos entrando en una era donde el conocimiento biológico más peligroso podría estar al alcance de cualquiera?


El aviso que nadie esperaba

Durante décadas, el imaginario popular sobre la inteligencia artificial estuvo dominado por máquinas rebeldes, robots que se levantan contra sus creadores o sistemas que escapan al control humano. Era el guion clásico de la ciencia ficción... el miedo a que las máquinas adquirieran voluntad propia.

Pero en los últimos años el temor ha cambiado de forma.

Quienes están en la primera línea del desarrollo tecnológico han comenzado a señalar un peligro diferente, no tanto que la inteligencia artificial decida destruirnos, sino que los humanos utilicen estas herramientas para hacerlo.

Uno de los avisos más recientes provino del propio Sam Altman, director ejecutivo de OpenAI, quien ha reconocido públicamente su preocupación por el uso de sistemas de inteligencia artificial en la ingeniería de patógenos. Según Altman, una de las amenazas más serias del futuro cercano es que actores malintencionados utilicen modelos avanzados para diseñar virus o bacterias más peligrosos que los conocidos actualmente.

No se trata de fantasía. Para muchos investigadores, esta posibilidad se encuentra dentro de lo técnicamente plausible. Y quizás lo más inquietante es que la tecnología necesaria ya está empezando a existir.

 

Cuando la biología se volvió programable

Durante gran parte de la historia humana, la biología fue un territorio complejo y difícil de manipular. Diseñar un organismo nuevo era prácticamente imposible.

Eso cambió a principios del siglo XXI. La aparición de herramientas como CRISPR (Repeticiones Palindrómicas Cortas Agrupadas y Espaciadas Regularmente), la biología sintética y la secuenciación genética masiva transformó radicalmente el panorama. De pronto, los científicos comenzaron a hablar de ADN como si fuera código.

Genes que podían copiarse, secuencias que podían editarse y organismos que podían diseñarse. La biología empezó a parecerse, cada vez más, a la informática.

Sin embargo, incluso con estas herramientas, diseñar un patógeno eficaz seguía siendo un proceso extremadamente complejo. Requería años de estudio, laboratorios especializados y equipos de investigación altamente entrenados. Pero en nuestros días, la inteligencia artificial amenaza con cambiar ese equilibrio.

 

La IA como acelerador de descubrimientos

Los sistemas de IA actuales son capaces de analizar cantidades gigantescas de datos científicos en artículos, secuencias genéticas, estudios médicos y modelos moleculares. Lo que antes tomaba años de investigación humana ahora puede reducirse a semanas o incluso días.

La misma tecnología que permite descubrir nuevos medicamentos o vacunas también puede utilizarse para lo contrario, identificar modificaciones genéticas que vuelvan más letal o contagioso a un microorganismo.

Este fenómeno se conoce como dual use: tecnologías que pueden usarse tanto para el bien como para el mal.

Un modelo de inteligencia artificial entrenado en biología molecular puede, por ejemplo:

  • analizar millones de mutaciones posibles en un virus
  • predecir cuáles aumentan su capacidad de transmisión
  • sugerir combinaciones genéticas viables


En otras palabras, convertir la ingeniería biológica en un problema computacional.

Y eso lo cambia todo.

 

El miedo de los propios creadores

Las advertencias de Altman no surgieron en el vacío.

En los últimos años, numerosos investigadores en inteligencia artificial han firmado declaraciones públicas alertando sobre los riesgos potenciales de la tecnología.

Uno de esos documentos, promovido por el Center for AI Safety, afirmaba que reducir el riesgo de extinción causado por la IA debería ser una prioridad global comparable al riesgo de pandemias o guerras nucleares.

Puede sonar exagerado, pero el argumento detrás de esta afirmación es relativamente simple: 

A medida que la inteligencia artificial se vuelve más poderosa, amplifica las capacidades humanas. Y las capacidades humanas incluyen tanto creatividad como destrucción.


Si alguien con malas intenciones tuviera acceso a modelos extremadamente avanzados de biología computacional, podría intentar diseñar patógenos que la naturaleza nunca habría producido por sí sola.

 

Un laboratorio en cada computadora

Hace veinte años, desarrollar un arma biológica requería instalaciones complejas y recursos estatales. Hoy la situación empieza a cambiar.

Los avances en inteligencia artificial, combinados con bases de datos científicas abiertas y herramientas de biología sintética, podrían reducir drásticamente las barreras de entrada.

Algunos expertos hablan de un escenario inquietante: la democratización del conocimiento peligroso.

No significa que cualquiera pueda fabricar un virus mortal en su cocina. La biología real sigue siendo complicada. Pero la IA puede facilitar la fase de diseño.

En términos simples, antes era difícil saber qué mutación probar, ahora una inteligencia artificial puede sugerir miles de posibilidades. Y aunque la mayoría fracasarían, bastaría con que una sola funcionara.

Pero hay otra razón por la que estas advertencias empiezan a tomarse en serio... La velocidad.

La historia de la ciencia muestra que las revoluciones tecnológicas suelen avanzar más rápido que las regulaciones. El desarrollo de la energía nuclear, por ejemplo, superó durante años la capacidad política para controlarla. Con la inteligencia artificial podría estar ocurriendo algo similar.

Las empresas tecnológicas compiten ferozmente por desarrollar modelos cada vez más poderosos. Gobiernos de todo el mundo ven la IA como un elemento estratégico comparable a la carrera espacial o la carrera nuclear.

En ese contexto, la seguridad biológica podría quedar en segundo plano.

Altman ha señalado repetidamente que ninguna empresa puede gestionar estos riesgos por sí sola, y que será necesario algún tipo de gobernanza global para evitar usos peligrosos de la tecnología.

El problema es que la cooperación internacional rara vez avanza al mismo ritmo que la innovación tecnológica.

 

El recuerdo incómodo de la historia

Si este escenario produce una sensación inquietante es porque la humanidad ya ha vivido algo parecido.

En los años cuarenta, un pequeño grupo de físicos descubrió que la materia escondía una energía casi infinita. Lo que comenzó como investigación teórica terminó en el desarrollo de la bomba atómica.

Muchos de los científicos implicados comprendieron demasiado tarde el alcance de lo que habían creado.

La inteligencia artificial podría representar un momento similar.

No necesariamente porque vaya a crear armas por sí sola, sino porque multiplica el poder humano de maneras que aún no entendemos del todo.

La diferencia es que esta vez no hablamos de una sola tecnología centralizada, como el enriquecimiento de uranio. Hablamos de sistemas informáticos distribuidos que pueden ejecutarse en centros de datos de todo el mundo.

Eso hace que el problema sea más difuso… y quizás más difícil de controlar.

 

Entre la paranoia y la ingenuidad

Frente a estas advertencias suelen surgir dos reacciones opuestas.

La primera es el alarmismo absoluto: imaginar un futuro inmediato donde la inteligencia artificial libera virus apocalípticos.

La segunda es el escepticismo total: pensar que todo esto es exageración o marketing tecnológico.

La realidad, como suele ocurrir, probablemente se encuentra en algún punto intermedio.

La mayoría de los científicos coincide en que la IA no está a punto de crear pandemias artificiales mañana. Pero también reconocen que la convergencia entre inteligencia artificial y biología sintética abre un territorio nuevo, donde los riesgos todavía no se comprenden completamente.

Y en cuestiones de bioseguridad, los riesgos improbables pueden tener consecuencias enormes.

 

El verdadero problema: el conocimiento sin guardianes

La civilización moderna se construyó sobre la idea de que el conocimiento debe ser libre. Compartir información científica ha permitido avances extraordinarios en medicina, energía y tecnología.

Pero la inteligencia artificial está poniendo a prueba ese principio.

¿Qué ocurre cuando el conocimiento disponible puede utilizarse para diseñar patógenos peligrosos?

¿Deberían limitarse ciertos modelos de IA?
¿Controlarse las bases de datos genéticas?
¿Regularse la investigación en biología computacional?

Estas preguntas no tienen respuestas sencillas.

Demasiado control puede frenar descubrimientos médicos vitales.
Demasiada libertad podría abrir puertas que nadie sabe cómo cerrar.

 

La nueva frontera del riesgo invisible

Tal vez el mayor cambio que trae la inteligencia artificial no sea tecnológico, sino conceptual. Durante siglos, las amenazas más grandes de la humanidad fueron visibles: ejércitos, armas, territorios en disputa.

Las amenazas del siglo XXI son diferentes.

Códigos informáticos, secuencias genéticas, y algoritmos entrenados con datos invisibles.

La advertencia de Sam Altman sobre los patógenos diseñados con inteligencia artificial no es necesariamente una profecía. Puede que nunca llegue a materializarse.

Pero si nos debe hacer reflexionar sobre el hecho de que la humanidad ha creado una herramienta capaz de amplificar su inteligencia de formas que apenas empezamos a entender.

Y cuando el conocimiento se vuelve tan poderoso, el verdadero peligro no es la máquina... Es la mente humana que la utiliza.

 

Imagen creada con Sora IA 

Inteligencias Artificiales y Nuevos Patógenos: El Temor Silencioso de la Era Digital  Inteligencias Artificiales y Nuevos Patógenos: El Temor Silencioso de la Era Digital Reviewed by Angel Paul C. on abril 04, 2026 Rating: 5

Aviso

Usamos cookies propias y de terceros que entre otras cosas recogen datos sobre sus hábitos de navegación para mostrarle publicidad personalizada y realizar análisis de uso de nuestro sitio.
Si continúa navegando consideramos que acepta su uso. OK Más información