Hace unos días, un grupo de destacados líderes se unió en una declaración conjunta a través de una carta abierta publicada en el sitio del Instituto Future Of Life (Futuro de la Vida) en la que piden “detener” el desarrollo de la inteligencia artificial durante al menos seis meses. Entre los firmantes se encontraban importantes figuras como Elon Musk, Steve Wozniak y el historiador Yuval Noah Harari. Todos ellos expresaron preocupación por los riesgos que representa la carrera desenfrenada para crear modelos de inteligencia artificial cada vez más avanzados, que se basan en el aprendizaje profundo y en el procesamiento de grandes cantidades de datos para la toma de decisiones y la resolución de problemas.
El texto de la carta titulada “Pausen los gigantes experimentos de Inteligencia Artificial” comienza con una llamada a la acción directa: “Hacemos un llamado a todos los laboratorios de IA para que detengan de inmediato durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4.” El resto de la carta dice así:
La inteligencia artificial (IA) con habilidades comparables a las humanas puede representar riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe ser planificada y administrada con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, incluso aunque los últimos meses han visto a los laboratorios de IA envueltos en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.
Los sistemas de IA contemporáneos están ahora volviéndose competitivos con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluyendo los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos, superar nuestra inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no electos. Los sistemas de IA poderosos deben ser desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si no se puede implementar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de una duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.
La investigación y el desarrollo de la IA deben centrarse en hacer que los sistemas más poderosos y avanzados de hoy en día sean más precisos, seguros, interpretables, transparentes, resistentes, alineados, confiables y leales.
Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un ecosistema de auditoría y certificación sólido; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación de seguridad técnica de la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente para la democracia) que la IA causará.
La humanidad puede disfrutar de un futuro próspero con la IA. Habiendo logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un “verano de la IA” en el que cosechemos las recompensas, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo verano de la IA, no corramos desprevenidos hacia una caída.
(Future of Life Institute, 2023)
Una oportunidad de Futuro.
A medida que las cosas se vuelven más complejas, es comprensible que surjan dudas y miedos sobre los efectos desconocidos del uso de la IA en nuestra vida cotidiana. La carta hace un llamado a la reflexión y a tomar medidas para garantizar la seguridad, transparencia y confiabilidad de los sistemas de IA. En particular, se insta a los desarrolladores de IA a trabajar en estrecha colaboración con los responsables políticos para acelerar el desarrollo de sistemas de gobernanza robustos y efectivos. Estos sistemas deben incluir autoridades reguladoras especializadas en IA, supervisión y seguimiento de sistemas altamente capaces de IA y grandes cantidades de capacidad computacional, sistemas de origen y marca de agua para distinguir lo real de lo sintético y rastrear las filtraciones de modelos, y un ecosistema sólido de auditoría y certificación.
A pesar de estos riesgos, también se reconoce que la IA tiene el potencial de mejorar significativamente nuestras vidas. Por lo tanto, es importante abogar por un enfoque cauteloso y reflexivo en su desarrollo. En lugar de apresurarnos a avanzar en el desarrollo de IA sin tener en cuenta sus posibles impactos negativos, debemos disfrutar de un “verano de la IA” y trabajar juntos para garantizar que la IA se desarrolle de manera segura, responsable y en beneficio de todos.
La Caja de Pandora del Siglo XXI
En un mundo cada vez más impulsado por la tecnología, es difícil ignorar el potencial peligro de la inteligencia artificial (IA). Se dice que las IA son como una caja de Pandora moderna, con el potencial de liberar consecuencias no deseadas y desconocidas. Al igual que en la mitología griega, la caja de Pandora contenía una serie de males que fueron liberados al abrir la caja, con consecuencias catastróficas para la humanidad.
De manera similar, la IA representa un potencial desconocido, capaz de causar estragos en nuestra sociedad si no se maneja adecuadamente. La creciente preocupación por el poder y la autonomía de las IA ha llevado a muchos a preguntarse si deberíamos seguir adelante con el desarrollo de estas tecnologías. A medida que las capacidades de la IA aumentan, también aumenta la preocupación de que los sistemas sean capaces de tomar decisiones que tengan consecuencias imprevistas e incluso peligrosas.
Pero hay una cara más optimista en esta historia. Al igual que en la mitología griega, la caja de Pandora también contenía la esperanza, que se liberó junto con los males. De manera similar, el desarrollo de la IA también tiene el potencial de ofrecer soluciones innovadoras y beneficiosas para la humanidad. Si se maneja adecuadamente, la IA podría ofrecer avances en áreas como la medicina, la ciencia, la agricultura y más.
Por lo tanto, la clave es encontrar un equilibrio adecuado entre el potencial peligroso y el beneficioso de las IA. Debemos trabajar para desarrollar sistemas de IA éticos y transparentes, asegurándonos de que sean seguros y confiables. Al hacerlo, podemos abrir la caja de Pandora de la IA de manera responsable y asegurarnos de que sus beneficios superen cualquier riesgo potencial.
Texto perfeccionado con la ayuda de un modelo de lenguaje basado en IA
Desarrollo websites desde los 15 años. Me apasiona el diseño gráfico y los desafíos expresados en algún lenguaje de programación. Me gusta leer, escribir y oír música. Disfruto de los regalos sencillos de la vida, con una mirada crítica y revisionista de absolutamente todo lo que me rodea. Dios es fiel.
Pingback: La posibilidad de una isla: la inteligencia artificial y el futuro de la humanidad - David Chacón Cisterna
Pingback: Nexus: Entre la conexión infinita y la preservación de la cordura - David Chacón Cisterna