David Chacón Cisterna

Diseño Web, Docencia y más

Nexus: Entre la conexión infinita y la preservación de la cordura

Recientemente lanzado al mercado global, el nuevo libro del autor y divulgador de historia, nuevamente ha dado de qué hablar. Como lector, he decidido dejar plasmadas algunas impresiones a partir de mis highlights de mi cuenta Goodreads.

El libro Nexus de Yuval Noah Harari, plantea una reflexión profunda sobre el nexo que la tecnología ha tejido entre nuestras actividades humanas en el siglo XXI. Harari parte de la premisa de que la información -esa materia prima invisible pero poderosa- ha pasado a convertirse en el recurso central de nuestra civilización. Sin embargo, detrás de esa “red inorgánica” que ahora conecta a la humanidad con algoritmos y máquinas, subyace una trama de preguntas cruciales sobre nuestras decisiones, valores y por supuesto, el futuro.

La historia de la IA contada por Yuval Noah Harari

En la primera parte del libro, Harari describe cómo la humanidad ha construido redes de información, desde relatos hasta documentos, y cómo, paradójicamente, estos nos han hecho más vulnerables al error y a la manipulación. La “fantasía de la infalibilidad” es una advertencia clara. Hoy en día, la confianza ciega en la tecnología nos expone a fallos que pueden tener consecuencias catastróficas.

Un aspecto particularmente relevante para los tiempos actuales es cómo Harari aborda la transición desde las redes humanas hacia las inorgánicas. Aquí, hace una distinción elemental entre un antes y el ahora; mientras que las imprentas, teléfonos y correos electrónicos simplemente facilitaban el flujo de información, los algoritmos y redes actuales no solo canalizan datos, sino que deciden y actúan en nuestro lugar. El concepto de incansabilidad en la red actual es escalofriante: las máquinas no descansan, no requieren pausas, y con esto, la humanidad empieza a verse presionada a mantenerse al ritmo incesante de estas nuevas entidades.

A esto se suma el factor de falibilidad de los sistemas. Aquí Harari plantea una verdad incómoda: los algoritmos y redes no solo pueden equivocarse, sino que lo hacen de manera sistemática y sin que la mayoría de los usuarios lo perciban. Es aquí donde el discurso mediático sobre la IA choca con la realidad que expone el libro. A menudo se promueve un entusiasmo desmedido por los avances en inteligencia artificial, pero Harari nos invita a mirar más allá del deslumbramiento inicial y a sopesar con cuidadosa cautela el poder que estos sistemas tienen sobre nuestras vidas.

Uno de los puntos más inquietantes del libro es cuando plantea la pregunta: ¿Podemos mantener todavía una conversación? El creciente poder de las máquinas pone en duda nuestra capacidad de tomar decisiones democráticas, y aquí Harari introduce una advertencia sobre los riesgos de caer en un “totalitarismo digital”. Los algoritmos, bajo el disfraz de eficiencia y neutralidad, podrían, si no vigilamos de cerca, reemplazar el juicio humano en áreas tan esenciales para la vida humana en sociedad como son la política y la gobernanza.

A lo largo del texto, Harari esboza una visión sombría de un “Telón de Silicio” (en analogía a la antigua “Cortina de Hierro”) que podría dividir al mundo, no por ideologías políticas, sino por acceso a la tecnología y al conocimiento. Esta nueva frontera entre quienes controlan los algoritmos y quienes dependen de ellos se convierte en un nuevo tipo de desigualdad global. El lector, como yo, se ve forzado a preguntarse si estamos listos para enfrentar estas divisiones o si seguiremos adelante sin cuestionar.

Un equilibrio necesario entre conexión y cordura.

Algunos de los detalles que me han sorprendido gratamente tienen que ver con cómo Harari logra equilibrar la reflexión crítica con una narrativa que no es enteramente pesimista. Al igual que Cher Ami, la paloma mensajera que aparece en la portada (cuya historia cuenta que salvó vidas al entregar un mensaje en medio de la segunda guerra mundial), la tecnología tiene el potencial de ser un puente facilitador de soluciones en tiempos de crisis. Sin embargo, ese potencial no está exento de riesgos, y es nuestra responsabilidad cuestionar y reflexionar sobre hacia dónde dirigimos nuestro avance tecnológico.

Desde lo personal, un punto que merece especial atención es el papel de los datos en la caja oscura de la inteligencia artificial. La hegemonía de los datos de origen, mayormente en inglés y provenientes del hemisferio norte, ha dejado de lado la riqueza cultural y local de otras regiones del mundo, como Latinoamérica. En particular, países como Chile, históricamente aislados, han quedado excluidos de estas narrativas globales. La inteligencia artificial que se entrena con datos que no reflejan nuestra diversidad está construyendo una visión incompleta y sesgada de la humanidad. Esto no solo perpetúa la invisibilización de nuestras culturas, sino que también limita el alcance de las soluciones que estas tecnologías pueden ofrecer a problemáticas locales.

¿Soluciones o nuevos problemas?

Es aquí donde surge una cuestión crítica: ¿a quién pertenecen los datos y quién decide cómo se usan? Este desequilibrio de poder es particularmente evidente cuando se consideran los problemas medioambientales relacionados con la inteligencia artificial. Los recursos que se consumen para entrenar estos modelos, desde electricidad hasta agua, están alcanzando niveles preocupantes. Empresas tecnológicas como Google y Microsoft ya consumen más electricidad que 100 países combinados, lo que deja una huella ecológica considerable. Además, el agua que se utiliza para refrigerar los centros de datos ha registrado aumentos alarmantes, mientras que las corporaciones parecen ocultar esta información al público, aunque indirectamente, lo publican en sus informes.

Así, la IA, mientras promete resolver problemas globales, parece estar creando otros de igual o mayor magnitud. Siendo éste un momento en que atestiguamos el auge de la IA, resulta necesario preguntarse a qué costo estamos dispuestos a avanzar. Y es en esta reflexión donde Nexus brilla con luz propia, al recordar que todo avance tecnológico viene con una responsabilidad implícita. No podemos celebrar los logros sin evaluar también las sombras que proyectan.

En lo personal, Nexus ha sido de una lectura fácil y reveladora. Harari, con su estructura acostumbrada y un continuismo transversal a sus obras que sorprende, nos recuerda que la tecnología, aunque fascinante y poderosa, debe ser abordada con mesura. Los medios de comunicación y la sociedad a menudo muestran un entusiasmo desenfrenado por el progreso tecnológico, pero debemos mantener un equilibrio en pos de la preservación de la cordura. Como apasionado de la tecnología, me alegra enormemente cada uno de los avances tecnológicos, a la vez que creo esencial poner en la balanza cada nuevo paso que damos para asegurar que nuestras decisiones sean justas, imparciales y sostenibles.

IA: La caja de Pandora del Siglo XXI

Hace unos días, un grupo de destacados líderes se unió en una declaración conjunta a través de una carta abierta publicada en el sitio del Instituto Future Of Life (Futuro de la Vida) en la que piden “detener” el desarrollo de la inteligencia artificial durante al menos seis meses. Entre los firmantes se encontraban importantes figuras como Elon Musk, Steve Wozniak y el historiador Yuval Noah Harari. Todos ellos expresaron preocupación por los riesgos que representa la carrera desenfrenada para crear modelos de inteligencia artificial cada vez más avanzados, que se basan en el aprendizaje profundo y en el procesamiento de grandes cantidades de datos para la toma de decisiones y la resolución de problemas.

El texto de la carta titulada “Pausen los gigantes experimentos de Inteligencia Artificial” comienza con una llamada a la acción directa: “Hacemos un llamado a todos los laboratorios de IA para que detengan de inmediato durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4.” El resto de la carta dice así:

La inteligencia artificial (IA) con habilidades comparables a las humanas puede representar riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe ser planificada y administrada con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, incluso aunque los últimos meses han visto a los laboratorios de IA envueltos en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos están ahora volviéndose competitivos con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluyendo los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos, superar nuestra inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no electos. Los sistemas de IA poderosos deben ser desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si no se puede implementar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de una duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.

La investigación y el desarrollo de la IA deben centrarse en hacer que los sistemas más poderosos y avanzados de hoy en día sean más precisos, seguros, interpretables, transparentes, resistentes, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un ecosistema de auditoría y certificación sólido; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación de seguridad técnica de la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente para la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro próspero con la IA. Habiendo logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un “verano de la IA” en el que cosechemos las recompensas, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo verano de la IA, no corramos desprevenidos hacia una caída.

(Future of Life Institute, 2023)

Una oportunidad de Futuro.

A medida que las cosas se vuelven más complejas, es comprensible que surjan dudas y miedos sobre los efectos desconocidos del uso de la IA en nuestra vida cotidiana. La carta hace un llamado a la reflexión y a tomar medidas para garantizar la seguridad, transparencia y confiabilidad de los sistemas de IA. En particular, se insta a los desarrolladores de IA a trabajar en estrecha colaboración con los responsables políticos para acelerar el desarrollo de sistemas de gobernanza robustos y efectivos. Estos sistemas deben incluir autoridades reguladoras especializadas en IA, supervisión y seguimiento de sistemas altamente capaces de IA y grandes cantidades de capacidad computacional, sistemas de origen y marca de agua para distinguir lo real de lo sintético y rastrear las filtraciones de modelos, y un ecosistema sólido de auditoría y certificación.

A pesar de estos riesgos, también se reconoce que la IA tiene el potencial de mejorar significativamente nuestras vidas. Por lo tanto, es importante abogar por un enfoque cauteloso y reflexivo en su desarrollo. En lugar de apresurarnos a avanzar en el desarrollo de IA sin tener en cuenta sus posibles impactos negativos, debemos disfrutar de un “verano de la IA” y trabajar juntos para garantizar que la IA se desarrolle de manera segura, responsable y en beneficio de todos.

La Caja de Pandora del Siglo XXI

En un mundo cada vez más impulsado por la tecnología, es difícil ignorar el potencial peligro de la inteligencia artificial (IA). Se dice que las IA son como una caja de Pandora moderna, con el potencial de liberar consecuencias no deseadas y desconocidas. Al igual que en la mitología griega, la caja de Pandora contenía una serie de males que fueron liberados al abrir la caja, con consecuencias catastróficas para la humanidad.

De manera similar, la IA representa un potencial desconocido, capaz de causar estragos en nuestra sociedad si no se maneja adecuadamente. La creciente preocupación por el poder y la autonomía de las IA ha llevado a muchos a preguntarse si deberíamos seguir adelante con el desarrollo de estas tecnologías. A medida que las capacidades de la IA aumentan, también aumenta la preocupación de que los sistemas sean capaces de tomar decisiones que tengan consecuencias imprevistas e incluso peligrosas.

Pero hay una cara más optimista en esta historia. Al igual que en la mitología griega, la caja de Pandora también contenía la esperanza, que se liberó junto con los males. De manera similar, el desarrollo de la IA también tiene el potencial de ofrecer soluciones innovadoras y beneficiosas para la humanidad. Si se maneja adecuadamente, la IA podría ofrecer avances en áreas como la medicina, la ciencia, la agricultura y más.

Por lo tanto, la clave es encontrar un equilibrio adecuado entre el potencial peligroso y el beneficioso de las IA. Debemos trabajar para desarrollar sistemas de IA éticos y transparentes, asegurándonos de que sean seguros y confiables. Al hacerlo, podemos abrir la caja de Pandora de la IA de manera responsable y asegurarnos de que sus beneficios superen cualquier riesgo potencial.

Texto perfeccionado con la ayuda de un modelo de lenguaje basado en IA