Un investigador de IA cree que hay un 99,9% de posibilidades de que la IA nos aniquile
El podcaster Lex Fridman dijo en un episodio reciente que la mayoría de los ingenieros de IA con los que habla estiman entre un uno y un 20% de posibilidades de que la inteligencia artificial general acabe matando a los humanos.
La predicción varía dependiendo de cómo se pregunte. Por ejemplo, un estudio reciente realizado con 2.700 investigadores de IA indicó que solo hay un 5% de posibilidades de que la IA conduzca a la extinción humana.
Pero Fridman dijo que es importante hablar con personas que estiman una probabilidad mucho mayor de que la IA pueda acabar con nosotros, como el investigador de IA Roman Yampolskiy, quien le dijo al podcaster en una entrevista publicada el domingo que lo estima en un 99,9% en los próximos cien años.
El investigador de IA enseña ciencias de la computación en la Universidad de Louisville y acaba de publicar un libro llamado «IA: inexplicable, impredecible, incontrolable».
Discutió los riesgos de la IA durante más de dos horas en el podcast de Fridman, y sus predicciones fueron bastante sombrías.
Dijo que las posibilidades de que la IA acabe con la humanidad dependen de si los humanos pueden crear software altamente complejo con cero errores en los próximos 100 años. Yampolskiy dijo que le parece poco probable, ya que ningún modelo de IA ha estado completamente a salvo de las personas que intentan hacer que la IA haga algo para lo que no fue diseñada.
«Ya han cometido errores», dijo Yampolskiy. «Tuvimos accidentes, han sido liberados. No creo que haya un solo modelo de lenguaje grande hoy en día, que nadie haya tenido éxito en hacer algo que los desarrolladores no pretendían que hiciera».
Las primeras versiones de los modelos de IA en los últimos dos años han levantado varias banderas rojas de posible uso indebido o desinformación. Los deepfakes han creado imágenes pornográficas falsas de figuras públicas femeninas y han amenazado con influir en las elecciones con llamadas automáticas de IA que imitan al presidente Biden.
Google AI Overviews, basado en el modelo Gemini AI de Google, es el último lanzamiento de producto que no pegó el aterrizaje. La nueva función de la Búsqueda de Google estaba destinada a proporcionar resúmenes informativos rápidos para ciertas consultas presentadas en la parte superior de los resultados de búsqueda. En cambio, se volvió viral por encontrar respuestas sin sentido, como sugerir hacer pizza con pegamento o afirmar que ningún país de África comenzaba con la letra K.
Yampolskiy dijo que para controlar la IA, es necesario que haya una máquina de seguridad perpetua. Yampolskiy dijo que incluso si hacemos un buen trabajo con las próximas versiones de GPT, la IA seguirá mejorando, aprendiendo, automodificándose e interactuando con diferentes jugadores, y con riesgos existenciales, «solo tienes una oportunidad».
El CEO del desarrollador de ChatGPT, OpenAI, Sam Altman, ha sugerido un «sandbox regulatorio» en el que las personas experimenten con la IA y la regulen en función de lo que «salió realmente mal» y lo que salió «realmente bien».
Altman advirtió una vez, o tal vez estaba bromeando, en 2015 que «la IA probablemente conducirá al fin del mundo, pero mientras tanto, habrá grandes empresas».
Más recientemente, Altman ha dicho que lo que lo mantiene despierto por la noche son «todas las cosas de ciencia ficción» relacionadas con la IA, incluidas las cosas que son «fáciles de imaginar donde las cosas realmente salen mal».
Desde que ChatGPT arrasó en el mundo en noviembre de 2022, se han hecho varias predicciones sobre cómo la IA podría provocar la caída de la humanidad en lo que respecta a la IA.
Pero Yampolskiy también advirtió que «no podemos predecir lo que hará un sistema más inteligente». Comparó a los humanos con ardillas en el contexto de AGI, o inteligencia artificial general, y dijo que la IA creará algo que aún no sabemos que existe.
Sin embargo, según Yampolskiy, hay tres ámbitos de resultados que predice. Un riesgo es que todos mueran, otro es que todos sufran y deseen estar muertos, y otro es que los humanos hayan perdido por completo su propósito.
El último se refiere a un mundo en el que los sistemas de IA son más creativos que los humanos y pueden realizar todos los trabajos. En esa realidad, no está claro qué harían los humanos para contribuir, dijo Yampolskiy, haciéndose eco de algunas preocupaciones sobre si la IA comenzará a quitarle el trabajo a los humanos.
La mayoría de las personas en el campo reconocen cierto nivel de riesgo con la IA, pero no creen que sea tan probable que las cosas terminen mal. Elon Musk ha pronosticado entre un 10 y un 20% de posibilidades de que la IA destruya a la humanidad.
El ex CEO de Google, Eric Schmidt, ha dicho que los peligros reales de la IA, que son los ataques cibernéticos y biológicos, vendrán en tres a cinco años. Si la IA desarrolla el libre albedrío, Schmidt tiene una solución simple: los humanos pueden simplemente desconectarla.