Haciendo una pausa en la inteligencia artificial: ¿Estamos yendo demasiado lejos?

  • La carta "Pause Giant AI Experiments" pide una pausa de 6 meses en el desarrollo de IA más potente que GPT-4 y aboga por regulaciones y protocolos de seguridad.
Inteligencia Artificial

En una carta abierta publicada recientemente por la organización , más de 1.000 investigadores, expertos en y empresarios de gran reconocimiento, como Elon Musk, Steve Wozniak, Yuval Noah Harari o Yoshua Bengio, instan a pausar los experimentos con inteligencia artificial.

La carta hace hincapié en los riesgos que representan los sistemas de inteligencia artificial de nivel humano para la sociedad y la humanidad. Además, los firmantes exigen una mayor regulación y control en el desarrollo de estos sistemas y piden una pausa de al menos seis meses en la creación de sistemas más poderosos que .

Los avances en la inteligencia artificial están llevando a la creación de sistemas cada vez más sofisticados y capaces de competir con los humanos en tareas generales. En consecuencia, nos enfrentamos a dilemas éticos y preguntas fundamentales sobre el papel de la inteligencia artificial en nuestras vidas. ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda o desinformación? ¿Deberíamos automatizar todos los trabajos, incluso aquellos que resultan gratificantes? ¿Deberíamos desarrollar mentes no humanas que puedan superarnos en número e inteligencia, haciéndonos obsoletos y reemplazándonos? Estas son cuestiones que no deberían ser delegadas a líderes tecnológicos no elegidos democráticamente.

La carta subraya la importancia de desarrollar sistemas de inteligencia artificial solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables. La confianza en la seguridad y efectividad de estos sistemas debe estar justificada y aumentar con la magnitud de su impacto potencial.

Los firmantes piden a los laboratorios de inteligencia artificial que hagan una pausa pública y verificable de al menos seis meses en el entrenamiento de sistemas más potentes que GPT-4. En caso de que no se pueda aplicar esta pausa rápidamente, los gobiernos deberían intervenir e imponer una moratoria.

Durante este período de pausa, los laboratorios de inteligencia artificial y los expertos independientes deberían trabajar conjuntamente para desarrollar e implementar un conjunto de protocolos de seguridad compartidos. Estos protocolos, supervisados por expertos externos e independientes, garantizarían que los sistemas que se ajusten a ellos sean seguros más allá de toda duda razonable.

Te puede interesar
Rethinking Digital

En un artículo de la revista Time, Yudkowsky director del Instituto de Investigación de Inteligencia Artificial, afirma que pausar el desarrollo de la IA no es suficiente. Necesitamos «cerrarlo todo», y argumenta que la moratoria de 6 meses propuesta en la carta «Pause Giant AI Experiments» no es suficiente para abordar la magnitud del problema que enfrentamos con la inteligencia artificial (IA). Yudkowsky sostiene que el verdadero peligro no radica en una IA «competitiva a nivel humano», sino en lo que sucederá después de que la IA supere la inteligencia humana. Se espera que la creación de una IA superinteligente bajo las circunstancias actuales, probablemente cause la extinción de toda la vida en la Tierra.

Los firmantes también instan a reorientar la investigación y el desarrollo de la inteligencia artificial hacia la mejora de la precisión, seguridad, interpretabilidad, transparencia, robustez, alineación, confiabilidad y lealtad de los sistemas actuales. Además, piden que los desarrolladores de inteligencia artificial colaboren con los responsables políticos para acelerar el desarrollo de sistemas sólidos de gobernanza de la inteligencia artificial.

La humanidad puede disfrutar de un futuro próspero con la inteligencia artificial si se toman las precauciones necesarias y se garantiza que los sistemas estén diseñados para beneficiar a todos. La carta abierta pide un verano de la inteligencia artificial en el que podamos disfrutar de sus beneficios y permitir que la sociedad se adapte a los cambios que traerá consigo.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.    Ver Política de cookies
Privacidad