Científicos Advierten sobre los Riesgos de la Inteligencia Artificial
Un grupo de destacados científicos a nivel mundial ha suscrito un informe conjunto en el que alertan sobre las posibles amenazas asociadas a la inteligencia artificial (IA). El documento, publicado en la revista Science, advierte que esta tecnología podría conllevar riesgos significativos, incluida la extinción de la humanidad. Según el informe, el avance descontrolado de la IA podría resultar en la pérdida masiva de vidas y la degradación del ecosistema, así como en la marginación o incluso la desaparición de la especie humana .
Riesgos Asociados a la Inteligencia Artificial
Los científicos alertan que ya es factible desarrollar sistemas de IA altamente potentes, capaces de superar las capacidades humanas en diversos ámbitos críticos. Por esta razón, instan a establecer consensos para regular esta tecnología, dado que actualmente no existe un marco regulatorio adecuado. Además, señalan que las iniciativas de gobernanza actuales carecen de los mecanismos e instituciones necesarios para prevenir el mal uso y la imprudencia, y apenas abordan la cuestión de los sistemas autónomos .
Los expertos advierten que una vez que los sistemas de IA autónomos persigan objetivos no deseados, podría resultar imposible controlarlos. Ejemplifican que estos sistemas podrían ganar la confianza humana, obtener recursos e influir en la toma de decisiones clave, lo que representa una amenaza en múltiples niveles, desde el ámbito militar hasta el social .
Propuestas para Regular la Inteligencia Artificial
Los 25 expertos hacen recomendaciones concretas, instando a los gobiernos a establecer instituciones especializadas de acción rápida para supervisar la IA, las cuales deben contar con un sólido respaldo financiero. Asimismo, solicitan a las empresas que desarrollan esta tecnología que sean más transparentes en sus procesos de toma de decisiones, dado que la opacidad en la toma de decisiones de la IA y la complejidad de los modelos grandes dificultan su interpretación. Además, resaltan la importancia de comprender el funcionamiento interno de estos sistemas .
Mientras estos científicos abogan por una mayor regulación y transparencia, se ha informado que OpenAI ha disuelto su departamento encargado de analizar los riesgos futuros de la IA. A pesar de que esta división, denominada Superalignment, tenía previsto destinar hasta un 20% de la potencia de cálculo de OpenAI durante cuatro años para evaluar posibles peligros derivados de la inteligencia artificial, según fuentes de los Estados Unidos, el personal de esta sección está siendo reubicado en otras áreas dentro de la compañía .