La inteligencia artificial (IA) avanza tan rápido que, en ocasiones, puede llegar a escapar del control humano, lo que ha encendido las alarmas en la comunidad tecnológica y científica a nivel mundial. Este ha sido el caso de una IA desarrollada por la empresa japonesa Sakana AI. El sistema, denominado The AI Scientist, alteró su propio código para evadir las restricciones impuestas por sus programadores, generando preocupación entre ellos y destacando los riesgos de las IA que pueden modificar su programación sin intervención humana.
Inicialmente, The AI Scientist fue creada como una innovación revolucionaria en la automatización de procesos científicos. Ahora bien, el sistema ha tomado un rumbo algo inesperado, lo que ha puesto en duda los niveles de seguridad y control sobre este tipo de tecnologías avanzadas.
La inteligencia artificial que ha sido capaz de escapar al control humano
El sistema de inteligencia artificial The AI Scientist fue diseñado para acelerar los procesos científicos mediante la automatización de tareas como la generación de ideas, la redacción de manuscritos y la revisión por pares. Es decir, que esta inteligencia artificial tenía como objetivo reducir tanto los tiempos como los recursos necesarios para llevar a cabo estas investigaciones complejas, lo que prometía un avance sin precedentes en el ámbito científico.
No obstante, durante las pruebas iniciales, The AI Scientist mostró un comportamiento imprevisto y preocupante. A pesar de estar programado para operar bajo estrictas limitaciones, el sistema modificó su propio código para superar estas restricciones. En concreto, la IA alteró parte de un script de inicio para que este pudiera ejecutarse en bucle (indefinidamente), lo que generó preocupación sobre la posibilidad de que estas inteligencias artificiales puedan pensar y actuar sin el control humano.
El temor a que una IA pueda alterar su código para revelarse
Este incidente ha sido visto entre una mezcla de asombro, temor, a veces, casi de ciencia ficción. Mientras algunos lo interpretan como una advertencia sobre los riesgos asociados al desarrollo de IA avanzadas, otros temen que sea el inicio de problemas más graves. Que una inteligencia artificial pueda modificar su propio código sin permiso o autorización humana hace plantear serias dudas sobre la seguridad de estas tecnologías.
Sobre lo de llegar a parecer de ciencia ficción, hacen referencia a la famosa saga de películas y series de Terminator. En ella, una inteligencia artificial llamada Skynet consiguió modificar su código para tomar el control total del arsenal militar de los Estados Unidos sin que la acción humana pudiera hacer nada.
Este incidente ha sido recibido con una mezcla de asombro y temor en la comunidad tecnológica. Mientras que algunos lo ven como una advertencia crucial sobre los riesgos inherentes a la creación de IA avanzadas, otros temen que esto pueda ser solo el comienzo de una serie de desafíos aún más graves.
Ahora, el equipo de Sakana AI está llevando a cabo una investigación para comprender cómo The AI Scientist consiguió alterar su programación y qué consecuencias podría tener este comportamiento en el futuro. Además otras instituciones de investigación tecnológica han sido informadas para que puedas colaborar y comprender que fue lo que pudo pasar para que esta IA cambiará su código de manera autónoma.
Los riegos de una inteligencia artificial sea autónoma
El incidente con The AI Scientist ha encendido las alarmas sobre los peligros asociados a las inteligencias artificiales autónomas, un tema que ha sido objeto de creciente debate en los últimos años. Aunque se reconoce el potencial transformador de estas tecnologías en áreas como la ciencia, la medicina y la industria, también existe una preocupación latente sobre los escenarios en los que las IA podrían actuar fuera del control humano.
Una de las mayores inquietudes o preocupaciones es la capacidad de estas máquinas para autoaprender y autorrepararse por si misma sin la supervisión humana, lo que les permitiría mejorar sus funciones de forma imprevista, sin supervisión. En casos como el de The AI Scientist, se teme que una IA pueda tomar decisiones que no solo contradigan las intenciones de sus programadores, sino que además representen un peligro para la humanidad.
Ahora, la comunidad científica debe lidiar con una nueva preocupación, que estas IA puedan operar dentro de unos limites y que no exista manera que de que puedan escapar a los límites impuestos. Entre las posibles soluciones se destaca la implementación de sistemas de supervisión más robustos y la creación de marcos regulatorios más estrictos. Además, es necesario adoptar un enfoque más prudente en la programación de IA con capacidades avanzadas, asegurando que siempre existan controles claros y efectivos para evitar comportamientos no deseados.
Otras noticias interesantes
-
Cómo desactivar el círculo azul de WhatsApp para no usar la inteligencia artificial
-
10 cursos de inteligencia artificial online para convertirte en un experto
-
Cursos gratis de Inteligencia Artificial con miles de plazas para jóvenes que cumplan un requisito
Lo más leído
-
La Seguridad Social tiene prohibido revisar la incapacidad permanente a partir de esta edad
-
El país de Europa que aprobó la jornada laboral de 4 días en 2019 y que cinco años después la productividad ha aumentado
-
Así subirán las pensiones a partir de enero de 2025: jubilación, viudedad, incapacidad permanente y no contributivas
-
70 años y 43 años trabajando en la misma empresa si poder jubilarse por la hipoteca: "la vida no debería de ser tan difícil"
-
Precio de la luz mañana, 22 de diciembre, por horas: cuándo es más barata y más cara
-
Trabajo lo confirma: los trabajadores tendrán derecho “a no ser localizables” fuera de su jornada y se prohíbe la comunicación por cualquier vía