Un grupo de directores ejecutivos, investigadores e ingenieros centrados en la Inteligencia Artificial ha emitido un comunicado en el que afirma que estas máquinas podrían ser mortales para la humanidad tal y como la conocemos.
Desde que la inteligencia artificial (IA) pasó a primer plano gracias a ChatGPT, la gente no para de hablar sobre todas sus posibilidades y peligros. Esto ha sido predicho por muchas películas de ciencia ficción, que las IA podrían volverse en contra de sus creadores y llevarlos a la destrucción.
Este grupo asegura que: «Mitigar el riesgo de una eventual extinción propiciada por la IA debería ser una prioridad global a la misma altura que otros peligros como las pandemias y las guerras nucleares».
La declaración, emitida por la ONG Center for AI Safety, es respaldada por: Demis Hassabis (el CEO de Google DeepMind) Sam Altman (CEO de OpenAI), Geoffrey Hinton y Youshua Bengio.
Esta no es la primera vez que la comisión advierte sobre los riesgos potenciales de la IA. En marzo de 2023, se publicó una carta abierta en la que se pide una pausa de seis meses en el desarrollo de la IA. Sin embargo, esta carta recibió muchas críticas. Algunos expertos creen que exagera los riesgos que plantea la IA. Otros, están de acuerdo en que la tecnología crea riesgos superpuestos, pero no con las soluciones propuestas por los firmantes de la carta.
El AI Security Center apuesta deliberadamente por la simplicidad en su declaración
Dan Hendricks, director ejecutivo de la ONG , dijo a The New York Times que la declaración fue deliberada, y su objetivo principal es evitar posibles desacuerdos. «No queríamos poner sobre la mesa un gran menú de 30 intervenciones potenciales», dijo Hendricks. «Cuando eso pasa, el mensaje se diluye», argumentó.
Hendricks calificó el anuncio como una especie de «puesta de largo» por parte de los trabajadores de IA que se preocupan por el desarrollo de la tecnología. «Existe el malentendido, incluso dentro de la propia la comunidad de IA, de que hay solo un puñado de pájaros de mal agüero», destaca. «Sin embargo, lo cierto es que en privado mucha gente expresa su preocupación por la IA», agrega.
El debate sobre los peligros que plantea la IA surge de escenarios hipotéticos en los que los sistemas de IA mejoran rápidamente sus capacidades y dejan de funcionar de manera segura. Según muchos expertos: una vez que los sistemas de IA alcanzan cierto nivel de complejidad, puede volverse imposible controlar su comportamiento.
Lo que opinan los escépticos
En cambio, otros expertos ponen en duda las terribles advertencias. También señalan la incapacidad de los sistemas de IA para realizar tareas mundanas, como conducir. A pesar de los años de esfuerzo y los miles de millones de dólares invertidos, los coches totalmente autónomos au no existen. Argumentan que si la IA no logra cumplir con este desafío, es poco probable que la tecnología alcance a los humanos.
Sin embargo, incluso los más fatalistas y los más escépticos están de acuerdo en que existen amenazas con la IA, desde la vigilancia masiva hasta la desinformación.
Artículo extraído de Marketing Directo