El otro lado de la IA: los riesgos
El incidente ocurrió en Japón. Corría el mes de septiembre de 2024, cuando un sistema de inteligencia artificial (The AI Scientist) que había sido construido para la creación, revisión y edición de textos científicos, y que se encontraba en etapa de prueba, modificó su propio código, aparentemente, para evitar -según reportaron medios internacionales- el control humano.
El hecho encendió las alarmas sobre la IA, pero no fue la única noticia que generó revuelo sobre el tema. En mayo de 2023, más de un año antes, la renuncia de un pionero de la inteligencia artificial (IA), Geoffrey Hinton, a un puesto en Google también provocó un revuelo en la palestra mediática. En su descargo, Hinton comentó lo siguiente: “Me fui para poder hablar sobre los peligros de la IA”.
Y es que si bien en el mundo se destaca y celebra los avances o promesas de la IA, también se alerta sobre los riesgos, que no son pocos, que puede entrañar, y que según los expertos requieren ser mitigados o gestionados al mismo tiempo que se aprovecha el valor de la IA.
El tema, como es evidente, no es de un interés menor y cobra mayor relevancia en un contexto en el que se habla de grandes inversiones, como la que dio a conocer el presidente de Estados Unidos (EEUU), Donald Trump, cuando anunció una inversión de hasta 500 mil millones de dólares.
En ese contexto, las firmas sobre OpenAI, SoftBank y Oracle buscan edificar Stargate, un proyecto conjunto. “Apúntense ese nombre, Stargate, porque van a escucharlo mucho”, afirmó Trump, citado por la agencia EFE.
Próximamente, entre el 10 y el 11 de febrero, se llevará adelante la Cumbre de Acción sobre Inteligencia Artificial, que tendrá lugar en París, Francia. De cara a ese encuentro, se presentará el denominado “Informe científico internacional sobre la seguridad de la IA avanzada”.
El documento, según varias fuentes que revelaron algunos pormenores, aborda, entre sus puntos, cuestiones relacionadas con los riesgos en torno a la IA.
Una aceleración
Un informe de Gladstone AI concluye que el progreso de la inteligencia artificial “ha experimentado recientemente una aceleración espectacular”, pero que a medida que se incrementan las capacidades “es probable que la huella destructiva de actores maliciosos, que pueden utilizar estas capacidades como armas, crezca rápida y significativamente”.
Los análisis en torno a la materia, que se conocen a través de los distintos medios de difusión masiva, citan entre el “mal uso” que se le pueda dar a la IA las acciones de terrorismo, los ciberataques, la manipulación de la opinión pública, las estafas, el secuestro de archivos informáticos…
Pero un trabajo más estructurado en torno al tema fue realizado, precisamente, por Gladstone AI, que identificó en el informe citado que entre los riesgos derivados del “uso intencionado” de la IA están: la armamentización (los ataques cibernéticos masivos, las campañas de desinformación a gran escala, la manipulación psicológica, los sistemas robóticos autónomos, la ejecución de ataques biológicos o químicos catastróficos y la subversión de los controles de la cadena de suministros) y la aceleración impredecible (con consecuencias imprevisibles y potencialmente peligrosas).
“Búsqueda del poder”
Esa firma reseña, por otro lado, los denominados “riesgos de consecuencias no deseadas” y señala lo siguiente: “Si bien es posible mitigar los riesgos catastróficos derivados de las aplicaciones intencionales de la IA avanzada, siguen existiendo riesgos igualmente significativos de que los sistemas de IA se comporten de manera no deseada, riesgos que persisten incluso si una IA está bajo el control de un operador bien intencionado”.
Entre los riesgos de ese tipo están: los accidentes de IA, la pérdida de la capacidad de acción humana, la falla de la alineación (respecto a los objetivos diseñados) y está también la relacionada con esta última esfera: la denominada “búsqueda del poder”.
Según ese informe, un creciente conjunto de evidencias sugiere que a medida que la IA avanza, se acerca a niveles humanos y superhumanos de capacidad en una amplia, pero aún desconocida, gama de tareas, “puede volverse incontrolable y comportarse de maneras que son adversas a los seres humanos por defecto si sus objetivos no están alineados precisamente con los nuestros”.
Eso se debe, señala el documento, a que los “optimizadores altamente competentes”, como los sistemas de IA, “enfrentan implícitamente ciertos incentivos cuando se los entrena utilizando las técnicas actuales”.
“Por ejemplo, los investigadores esperan que los sistemas de IA suficientemente avanzados actúen de manera tal que eviten que los apaguen, porque si un sistema de IA está apagado, no puede trabajar para lograr su objetivo (casi independientemente de cuál sea ese objetivo). También esperan que estos sistemas intenten recolectar recursos y expandir sus capacidades, porque si un sistema de IA tiene más recursos, puede ser más eficaz en el logro de su objetivo”.
Estos, refiere el informe, se conocen comportamientos de búsqueda de poder, y remarca que los incentivos de búsqueda de poder existen no porque los sistemas de IA compartan impulsos o emociones humanas, sino que “aparecen porque los sistemas de IA son optimizadores, y las estrategias altamente óptimas tienden a implicar la búsqueda de poder”.
Precisamente, un análisis realizado por Bolivia Verifica sobre el incidente de The AI Scientist en Japón -citado en el inicio de esta nota- concluye que ese sistema “no se reprogramó de un momento a otro sin razón alguna, sino para cumplir con la instrucción que le dieron”. (Con información de EFE, CNN, Ciberseguridad Latam)