Un vistazo a la declaración de “riesgo de extinción por la IA”

La declaración equipara el riesgo potencial de la erradicación humana por la IA con el de una guerra nuclear. Sin embargo, algunos argumentan que la sociedad debería mitigar el riesgo existente de sesgo de la IA.

Semanas después de que cientos de líderes tecnológicos, incluidos Elon Musk y el CEO de OpenAI, Sam Altman, firmaron una carta abierta solicitando una pausa de seis meses en la IA, un grupo de los principales expertos en IA puso sus nombres en otra declaración que equipara sin rodeos el peligro de la tecnología de IA al de la guerra nuclear y las pandemias.

Esta vez, un grupo similar de líderes pidió no una pausa, sino una acción regulatoria global.

El Centro para la Seguridad de la IA (CAIS), una organización dedicada al desarrollo y despliegue seguros de la tecnología de IA, el 30 de mayo emitió una breve declaración que dice: "Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos de escala social, como las pandemias y la guerra nuclear".

La declaración fue firmada por destacados líderes de IA como Demis Hassabis, CEO de Google DeepMind; Sam Altman, director ejecutivo de OpenAI; Dario Amodei, director ejecutivo del proveedor de investigación y seguridad de IA Anthropic; y Geoffrey Hinton, exingeniero de Google y profesor emérito de informática en la Universidad de Toronto.

El riesgo actual de la IA

Si bien algunos están de acuerdo con la declaración de CAIS de que prevenir la extinción por la IA debería ser una prioridad máxima, otros, como Chirag Shah, profesor de la Escuela de Información de la Universidad de Washington, ven ese temor como algo descabellado.

Los peligros reales de la IA ya están ocurriendo, y deberíamos prestarles más atención que lo que podría o no suceder en el futuro”, dijo Shah. "Más exactamente, no deberíamos perder de vista los peligros de la IA en este momento, mientras nos distraemos con los posibles escenarios del fin del mundo".

Los problemas actuales con algunas tecnologías de IA incluyen prejuicios y discriminación raciales, de género y de otro tipo integrados en los modelos de IA –incluidos los modelos de lenguaje grande ampliamente populares–, así como la desigualdad en la toma de decisiones basada en IA y la falta de transparencia, dijo Shah. Agregó que se trata de cuestiones éticas, legales y económicas que deben abordarse con mayor urgencia.

"Prestar demasiada atención a la 'extinción por la IA' y no hacer lo suficiente sobre estos problemas actuales es como construir refugios contra la lluvia radiactiva a expensas de no alimentar a la población que pasa hambre en este momento", dijo.

En cambio, los líderes de IA deberían centrar su atención y recursos en abordar los problemas a la vanguardia de la tecnología de IA en este momento.

El riesgo de extinción de la IA

Sin embargo, a pesar de los problemas actuales asociados con la tecnología de IA, todavía es necesario tener precaución porque se desconoce el poder destructivo potencial de la tecnología, dijo Sarah Kreps, profesora de la Universidad de Cornell y directora del Instituto de Políticas Tecnológicas de Cornell.

“Lo que estamos viendo con estas declaraciones es un principio de precaución”, dijo Kreps. "En este momento, no sabemos lo que no sabemos. Entonces, ¿por qué no actuar con cautela y hacer un llamado para mitigar los riesgos asociados con la IA?".

La propuesta de CAIS de convertir el riesgo de extinción de la vida humana en una prioridad mundial es modesta, agregó Kreps. A diferencia de lo que se ha visto como un llamado poco realista para una pausa de la IA, esencialmente propone un tratado internacional, dijo.

"Veo esto más como una llamada para mapear los riesgos asociados con la IA –no donde está la IA hoy, sino un mundo futuro de inteligencia artificial global– para que podamos protegernos contra esos riesgos", continuó Kreps.

Una vez que se identifiquen y expongan esos riesgos, quedará más claro si el riesgo asociado con la IA es equivalente a una guerra nuclear y una pandemia, agregó.

"Necesitamos más conciencia y estudio de esos riesgos para que podamos ver qué estrategias de mitigación deben seguir", dijo Kreps.

Sin embargo, a pesar de que la probabilidad y las consecuencias de una pandemia, una guerra nuclear y la extinción causada por la IA son todas diferentes, la declaración pretende demostrar un punto al público, dijo Kashyap Kompella, director ejecutivo y analista de RPA2AI Research. "Las cartas son una campaña para persuadir al público y hay un elemento de hipérbole debido a eso", dijo.

Además, al elegir qué riesgo de IA priorizar –por ejemplo, entre el riesgo de sesgo y la extinción– quizás no haya necesidad de elegir. "Yo diría, '¿Por qué no ambos?'. Esperemos que haya mejores medidas de protección contra los sistemas de IA defectuosos a medida que avanzamos”, dijo Kompella.

Si bien, actualmente, no hay un tratado global sobre la mesa, los EE. UU. y las naciones extranjeras, incluidos los países de la Unión Europea y China, han introducido recientemente legislación regulatoria y otras medidas para eliminar los riesgos conocidos de la IA, como el sesgo y la falta de transparencia.

CAIS no respondió a una solicitud de comentarios.

Esther Ajao es una escritora de noticias que cubre software y sistemas de inteligencia artificial.

Investigue más sobre Inteligencia artificial y automatización

ComputerWeekly.com.br
Close