Seúl acepta el segundo pico de seguridad en inteligencia artificial
Los líderes mundiales no se han enterado todavía de los riesgos que entraña la inteligencia artificial (IA) y tienen que «despertar». Así lo aseguran 25 de los mayores expertos en este campo del mundo en una carta publicada este lunes en la revista Science, en la víspera de la Cumbre de Seguridad en IA que se celebra en Seúl entre el 21 y el 22 de mayo.
La conferencia que acoge ahora Corea del Sur, de la que también es anfitriona Reino Unido, pretende continuar los trabajos y conversaciones que tuvieron hace medio año en Bletchley Park una cita que concluyó con la firma por parte de la Unión Europea, EEUU y China del primer acuerdo mundial que reconoce «las oportunidades y los riesgos» y asume el compromiso de que «los gobiernos trabajen juntos para afrontar los desafíos más importantes».
Los firmantes de la carta, entre los que se encuentran Geoffrey Hinton, Yoshua Bengio, Andrew Yao, Dawn Song, Sheila McIlraith o Daniel Kahnema, afirman que «el progreso logrado» desde que se firmó la llamada declaración de Bletchley Park «ha sido insuficiente» y consideran que es «es imperativo que los líderes mundiales se tomen en serio la posibilidad de que en la década actual o en la próxima se desarrollen sistemas generalistas de IA altamente poderosos, que superen las capacidades humanas en muchos dominios críticos«.
Aunque reconocen que los gobiernos han estado debatiendo sobre el asunto y han hecho algunos intentos para introducir directrices, consideran que estos pasos son insuficientes teniendo en cuenta el rápido y gran progreso que esperan muchos expertos.
Además, denuncian que en la actual investigación que se lleva a cabo sobre IA sólo entre el 1 y el 3% de las publicaciones tienen que ver con la seguridad de la misma. «No contamos con los mecanismos ni las instituciones para prevenir el uso indebido y la imprudencia, incluyendo la utilización de sistemas autónomos capaces de tomar acciones y perseguir objetivos de forma independiente», sostienen.
La carta recuerda que «la IA ya está logrando rápidos avances en ámbitos críticos como la piratería informática, la manipulación social y la planificación estratégica, y pronto podría plantear desafíos sin precedentes», como que «los sistemas de IA puedan ganarse la confianza humana, adquirir recursos e influir en los tomadores de decisiones clave».
Consideran estos expertos que «el cibercrimen a gran escala, la manipulación social y otros daños podrían aumentar rápidamente. En un conflicto abierto, los sistemas de IA podrían desplegar de forma autónoma una variedad de armas, incluidas las biológicas. En consecuencia, existe una posibilidad muy real de que el avance desenfrenado de la IA culmine en una pérdida de vidas y de la biosfera a gran escala, y en la marginación o extinción de la humanidad», advierten.
«Durante la última cumbre de IA, el mundo estuvo de acuerdo en que necesitábamos medidas, pero ahora es el momento de pasar de propuestas vagas a compromisos concretos. Este documento proporciona muchas recomendaciones importantes sobre lo que las empresas y los gobiernos deberían comprometerse a hacer», asegura Philip Torr, investigador del Departamento de Ingeniería de la Universidad de Oxford.
‘UN DOCUMENTO DE CONSENSO’
En palabras de Stuart Russell, profesor de Ciencias de la Computación en la Universidad de California en Berkeley, se trata de «un documento de consenso de destacados expertos y exige una regulación estricta por parte de los gobiernos, no códigos voluntarios».
Para este científico británico, «es hora de tomarse en serio los sistemas avanzados de IA, pues no son juguetes. Aumentar sus capacidades antes de que entendamos cómo hacerla segura es completamente imprudente. Las empresas se quejarán de que es demasiado difícil cumplir con las regulaciones, y de que éstas sofocan la innovación. Eso es ridículo. Hay más regulaciones para las tiendas de sándwiches que para las empresas de inteligencia artificial», señala Russell.
MEDIDAS PARA REFORZAR LA SEGURIDAD
Entre las recomendaciones a los gobiernos recogidas en la carta figuran establecer instituciones con expertos en inteligencia artificial que vigilen su desarrollo y actúen de forma ágil y rápida, y dotar a estos centros de una financiación mayor de la que recogen los planes actuales. Como comparación, señalan que el Instituto para la Seguridad de la IA de EEUU tiene actualmente un presupuesto anual de 10 millones de dólares, frente a los 6.700 millones de dólares que tiene la Administración para la Alimentación y los Medicamentos de EEUU (FDA).
Otra medida que proponen es exigir evaluaciones de riesgos mucho más rigurosas, en lugar de depender de evaluaciones voluntarias o poco detalladas. También consideran que hay que exigir a todas las compañías de IA que den prioridad a la seguridad y demuestren que sus sistemas no pueden causar daño. Esto incluye el uso de «casos de seguridad» (utilizados para otras tecnologías críticas para la seguridad, como la aviación), que trasladan la tarea de demostrar la seguridad a los desarrolladores de IA.
Los expertos que firman la carta reclaman asimismo «implementar estándares de mitigación acordes con los niveles de riesgo que planteen los sistemas de IA». Una prioridad urgente, desde su punto de vista, es establecer políticas que se activen automáticamente cuando la IA alcance ciertos hitos de capacidad. Si la IA avanza rápidamente, automáticamente entran en vigor requisitos estrictos, pero si el progreso se ralentiza, los requisitos pueden relajarse.
Los gobiernos deben estar preparados para tomar la iniciativa en materia de regulación de cara a futuros sistemas de IA que sean excepcionalmente capaces. Esto incluiría otorgar licencias para el desarrollo de estos sistemas, restringir su autonomía en roles sociales clave o detener su desarrollo y despliegue en respuesta a capacidades preocupantes.
«Al desarrollar la IA, la humanidad está creando algo más poderoso que ella misma, que podría escapar de nuestro control y poner en peligro la supervivencia de nuestra especie. En lugar de unirnos contra esta amenaza compartida, los humanos estamos luchando entre nosotros. La humanidad parece empeñada en autocontrolarse. Nos enorgullecemos de ser los animales más inteligentes del planeta. Parece entonces que la evolución está pasando de la supervivencia de los más aptos a la extinción de los más inteligentes», ha declarado por su parte el historiador y escritor israelí Yuval Noah Harari.
Por ello, Jeff Clune, profesor de IA en la Universidad British Columbia, en Canadá, urge a prepararnos para «riesgos que hoy nos parecen ciencia ficción», como nos lo parecían hace años tecnologías como los vuelos espaciales, las armas nucleares o internet. Entre esos riesgos, menciona «sistemas de IA que piratean redes e infraestructuras esenciales, manipulación política, robots soldados con IA y drones asesinos totalmente autónomos, e incluso sistemas de IA que intenten evadir nuestros esfuerzos para apagarlos».