Grandes problemas de seguridad en OpenAI
La seguridad siempre ha sido importante. En Internet ya hemos hablado en varias ocasiones del tema. A continuación hablamos de lo que está ocurriendo con OpenAI, la popular plataforma de Inteligencia Artificial, en los aspectos de la seguridad.
OpenAI es una de las más populares plataformas de Inteligencia Artificial. Proporciona unos cuantos servicios válidos para muchos usuarios, pero existe un alto número de empleados de OpenAI que muestran en varios medios de prensa y en podcasts los grandes problemas de seguridad que tiene la citada plataforma.
En The Washington Post se publicó el pasado viernes un artículo, OpenAI prometió que su IA sería segura. Los empleados afirman que «no pasó» su primera prueba. En el mismo nos dicen que OpenAI se apresuró en la realización de una serie de pruebas de seguridad y celebró resultados positivos antes de estar confirmados.
Lo que podemos leer en el artículo
Un empleado de la empresa OpenAI, cuyo nombre no se conoce, ha dicho a periodistas de The Washington Post lo siguiente: «Planearon la fiesta posterior al lanzamiento antes de saber si era seguro hacerlo. Básicamente, fallamos en el proceso«.
Los problemas de seguridad son muy importantes en OpenAI y no paran de surgir nuevos fallos. Los empleados actuales y anteriores de OpenAI firmaron recientemente una carta abierta exigiendo mejores prácticas de seguridad y transparencia por parte de la empresa que gestiona la plataforma, poco después de que su equipo de seguridad se disolviera tras la marcha del cofundador Ilya Sutskever.
En una publicación, Jan Leike, un importante investigador dentro de OpenAi, que también ha dimitido, ha dicho lo siguiente, refiriéndose a la empresa: «La cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes«.
A tener en cuenta
Según los estatutos de OpenAi la seguridad es un aspecto central, incluyendo una cláusula que afirma que la empresa ayudará a otras organizaciones a mejorar la seguridad si se alcanza la inteligencia artificial general, o AGI, convirtiéndolas en modelos de actuación en vez de seguir compitiendo.
Taya Christianson, portavoz de OpenAI, ha dicho lo siguiente tal como podemos leer en The Verge: «Estamos orgullosos de nuestra trayectoria en el suministro de los sistemas de Inteligencia Artificial más capaces y seguros, y creemos en nuestro enfoque científico para abordar los riesgos. El debate riguroso es fundamental dada la importancia de esta tecnología, y seguiremos colaborando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo al servicio de nuestra misión«.
Es evidente que todo lo que está en juego en el terreno de la seguridad es muy grande. Son enormes los riesgos que se plantean con la IA a todos los niveles. Los avances traen consigo la desestabilización de la seguridad global en una gran cantidad de aspectos.
Conclusión
Habrá que esperar y ver lo que va ocurriendo. Las nuevas medidas que se van tomando persiguen diferentes fines, en los que prima la seguridad. Está claro que no basta con realizar anuncios si no se cumplen las normas. No basta con tratar de vencer las críticas poniendo en marcha sistemas que no cumplen con los requisitos necesarios.