“Los modelos de IA alcanzaron un nivel de capacidad de programación que les permite superar a todos, excepto a los humanos más expertos”. Sin tapujos ni miedo a las exageraciones, Anthropic definió a su último lanzamiento como un producto que es tan potente que no puede estar al alcance del público común.

La semana pasada, la compañía que hoy está creciendo en popularidad por las prestaciones de Claude, su modelo estrella, sacudió a la industria tecnológica por un inesperado lanzamiento. Claude Mythos fue anunciado como un modelo de propósito general pero que se destacó por sus enormes propiedades para detectar vulnerabilidades de ciberseguridad. Es decir, es una IA capaz de encontrar fallas hasta en los sistemas más sofisticados, como programas y sistemas operativos que llevan años funcionando entre nosotros. Lo que nadie había sido capaz de hacer, Mythos lo logró. Lejos de celebrarlo, los directivos de Anthropic decidieron mantener cerrado el acceso a dicho producto y por ahora lo pusieron a disposición de un puñado de empresas de Silicon Valley.

Este acuerdo firmado con Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks, tiene el objetivo de brindar una nueva herramienta para fortalecer sistemas creados por los líderes de la industria que hasta ahora parecían invulnerables. Mythos puede detectar fallas pero también burlarse de ellas y eso causó escozor a los ingenieros y por eso, aseguran que deben apurarse en utilizar sus capacidades para fortalecer y defender a las organizaciones involucradas en la economía y la seguridad pública de todo el mundo. Las capacidades defensivas de este modelo también pueden ser la evidencia de sus capacidades de ataque.

El peligro entonces es más que evidente. Si una tecnología como Mythos cayera en manos equivocadas, sistemas de cualquier parte del mundo podrían ser vulnerados. Gobiernos, bancos, sistemas de seguridad y diferentes entornos de privacidad quedarían expuestos ante esta tecnología capaz de saltar barreras que durante más de 20 años se creyó que eran inalcanzables. Y lo peor de todo es que el sistema puede hacerlo solo, con autonomía y con una enorme ventaja de conocimiento que presentó a diferencia de sus competidores más cercanos.

El interés y temor que despertó este nuevo modelo genera dudas sobre dos aspectos del mercado tecnológico. En primer lugar, nos obliga a pensar qué tan rápido están yendo las empresas de IA en comparación con las de seguridad informática. Si bien todas las compañías digitales hoy están acelerando sus procesos gracias a modelos de lenguaje y automatizaciones, es evidente que las compañías específicas de IA lanzan productos y nuevas versiones de manera sistemática, a veces duplicando las capacidades de sus modelos anteriores presentados hace pocos meses. De hecho, los propios ingenieros de Anthropic se sorprendieron por las capacidades y la velocidad con la que Mythos comenzó a encontrar fallas por todas partes.

El otro punto está relacionado justamente con el factor sorpresa. Somos testigos de una época en la que nacen productos tecnológicos cuyos creadores se ven asombrados por resultados que ni ellos esperaban. ¿Cuál es el grado de responsabilidad entonces de quienes desarrollan esa tecnología? ¿Podrán frenarlas a tiempo cuando ejecuten tareas “inesperadas”?

Mantener a Mythos bajo llave es, por ahora, un alivio temporal, pero nunca en la historia hubo un conocimiento reprimido. La expansión del saber siempre es más fuerte que las intenciones de contenerlo para siempre. Por eso, estamos virando la forma de ver el dilema: ya no es qué tan potente es la herramienta, sino quién tiene el control y la responsabilidad sobre ella. Anthropic parece mostrar signos de responsabilidad y cautela, pero sin dudas comenzamos a delegar nuestra seguridad en sistemas que superan nuestra propia comprensión. Y al final de cuentas, de nada sirve expandir una tecnología tan potente si el mundo en el que habitará se vuelve cada día más frágil para habitarlo.