David Chacón Cisterna

Diseño Web, Docencia y más

IA: La caja de Pandora del Siglo XXI

Hace unos días, un grupo de destacados líderes se unió en una declaración conjunta a través de una carta abierta publicada en el sitio del Instituto Future Of Life (Futuro de la Vida) en la que piden “detener” el desarrollo de la inteligencia artificial durante al menos seis meses. Entre los firmantes se encontraban importantes figuras como Elon Musk, Steve Wozniak y el historiador Yuval Noah Harari. Todos ellos expresaron preocupación por los riesgos que representa la carrera desenfrenada para crear modelos de inteligencia artificial cada vez más avanzados, que se basan en el aprendizaje profundo y en el procesamiento de grandes cantidades de datos para la toma de decisiones y la resolución de problemas.

El texto de la carta titulada “Pausen los gigantes experimentos de Inteligencia Artificial” comienza con una llamada a la acción directa: “Hacemos un llamado a todos los laboratorios de IA para que detengan de inmediato durante al menos 6 meses el entrenamiento de sistemas de IA más poderosos que GPT-4.” El resto de la carta dice así:

La inteligencia artificial (IA) con habilidades comparables a las humanas puede representar riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe ser planificada y administrada con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, incluso aunque los últimos meses han visto a los laboratorios de IA envueltos en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos están ahora volviéndose competitivos con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluyendo los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos, superar nuestra inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no electos. Los sistemas de IA poderosos deben ser desarrollados solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos”. Estamos de acuerdo. Ese momento es ahora.

Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si no se puede implementar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de una duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la peligrosa carrera hacia modelos de caja negra cada vez más grandes e impredecibles con capacidades emergentes.

La investigación y el desarrollo de la IA deben centrarse en hacer que los sistemas más poderosos y avanzados de hoy en día sean más precisos, seguros, interpretables, transparentes, resistentes, alineados, confiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas robustos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas y capaces autoridades reguladoras dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes grupos de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear fugas de modelos; un ecosistema de auditoría y certificación sólido; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación de seguridad técnica de la IA; e instituciones bien dotadas de recursos para hacer frente a las dramáticas interrupciones económicas y políticas (especialmente para la democracia) que la IA causará.

La humanidad puede disfrutar de un futuro próspero con la IA. Habiendo logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un “verano de la IA” en el que cosechemos las recompensas, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto en pausa otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacer lo mismo aquí. Disfrutemos de un largo verano de la IA, no corramos desprevenidos hacia una caída.

(Future of Life Institute, 2023)

Una oportunidad de Futuro.

A medida que las cosas se vuelven más complejas, es comprensible que surjan dudas y miedos sobre los efectos desconocidos del uso de la IA en nuestra vida cotidiana. La carta hace un llamado a la reflexión y a tomar medidas para garantizar la seguridad, transparencia y confiabilidad de los sistemas de IA. En particular, se insta a los desarrolladores de IA a trabajar en estrecha colaboración con los responsables políticos para acelerar el desarrollo de sistemas de gobernanza robustos y efectivos. Estos sistemas deben incluir autoridades reguladoras especializadas en IA, supervisión y seguimiento de sistemas altamente capaces de IA y grandes cantidades de capacidad computacional, sistemas de origen y marca de agua para distinguir lo real de lo sintético y rastrear las filtraciones de modelos, y un ecosistema sólido de auditoría y certificación.

A pesar de estos riesgos, también se reconoce que la IA tiene el potencial de mejorar significativamente nuestras vidas. Por lo tanto, es importante abogar por un enfoque cauteloso y reflexivo en su desarrollo. En lugar de apresurarnos a avanzar en el desarrollo de IA sin tener en cuenta sus posibles impactos negativos, debemos disfrutar de un “verano de la IA” y trabajar juntos para garantizar que la IA se desarrolle de manera segura, responsable y en beneficio de todos.

La Caja de Pandora del Siglo XXI

En un mundo cada vez más impulsado por la tecnología, es difícil ignorar el potencial peligro de la inteligencia artificial (IA). Se dice que las IA son como una caja de Pandora moderna, con el potencial de liberar consecuencias no deseadas y desconocidas. Al igual que en la mitología griega, la caja de Pandora contenía una serie de males que fueron liberados al abrir la caja, con consecuencias catastróficas para la humanidad.

De manera similar, la IA representa un potencial desconocido, capaz de causar estragos en nuestra sociedad si no se maneja adecuadamente. La creciente preocupación por el poder y la autonomía de las IA ha llevado a muchos a preguntarse si deberíamos seguir adelante con el desarrollo de estas tecnologías. A medida que las capacidades de la IA aumentan, también aumenta la preocupación de que los sistemas sean capaces de tomar decisiones que tengan consecuencias imprevistas e incluso peligrosas.

Pero hay una cara más optimista en esta historia. Al igual que en la mitología griega, la caja de Pandora también contenía la esperanza, que se liberó junto con los males. De manera similar, el desarrollo de la IA también tiene el potencial de ofrecer soluciones innovadoras y beneficiosas para la humanidad. Si se maneja adecuadamente, la IA podría ofrecer avances en áreas como la medicina, la ciencia, la agricultura y más.

Por lo tanto, la clave es encontrar un equilibrio adecuado entre el potencial peligroso y el beneficioso de las IA. Debemos trabajar para desarrollar sistemas de IA éticos y transparentes, asegurándonos de que sean seguros y confiables. Al hacerlo, podemos abrir la caja de Pandora de la IA de manera responsable y asegurarnos de que sus beneficios superen cualquier riesgo potencial.

Texto perfeccionado con la ayuda de un modelo de lenguaje basado en IA

BigData versus SmallData

El Small Data puede ser definido como pequeños set de datos, capaces de generar decisiones de impacto en el presente, es decir, cualquier cosa que esté ocurriendo y cuyos datos puedan ser compilados en un archivo Excel. El Small Data es de mucha utilidad para las decisiones pero su propósito no es impactar al negocio en toda su extensión, sino que en un rango de corto alcance o periodo de tiempo limitado.
En resumen, puede ser utilizado por el entendimiento humano en un volumen y estructura que lo hacen asequible, conciso y trabajable.

El Big Data, en cambio, puede ser presentado como una gran cantidad de datos estructurados o no estructurados. La cantidad de datos almacenados es abismante. Es importante para analistas indagar hasta el más mínimo detalle de esa data para que la información obtenida sea relevante y prometa buenos resultados a la hora de aplicar esas decisiones a los negocios. En resumen, los sets de datos que son realmente grandes y complejos para procesar con técnicas convencionales, son conocidos como big data.

Bigdata-vs-Smalldata

Una tabla comparativa de ambos, quedaría como sigue:

CaracterísticaSmall DataBig Data
TecnologíaTradicionalModerna
RecolecciónGeneralmente, se obtiene de forma organizada que se inserta en la base de datosLa recopilación de Big Data se realiza mediante el uso de canalizaciones que tienen “colas” de ejecución, como AWS Kinesis o Google Pub/Sub para equilibrar datos de alta velocidad.
VolumenDatos en el rango de decenas o cientos de GigabytesEl tamaño de los datos es más de Terabytes
Áreas de AnálisisMercado de datos
(análisis de datos)
Clústers, (ciencia de datos),
Mercado de datos (análisis de datos)
CalidadCasi no contiene ruido, ya que los datos son recolectados de manera controladaGeneralmente, la calidad de los datos recolectados no está garantizada.
TratamientoRequiere canalizaciones de orientadas por lotesTiene canalizaciones por lotes o secuencia de datos.
Base de DatosSQLOtros, no SQL
VelocidadFlujo regular y constante de datos. Proceso de agregar datos es lento.Grandes volúmenes de datos a gran velocidad, en muy poco tiempo.
EstructuraDatos tabulados en un esquema fijo y relacionalNumerosa variedad de datos no esquematizados ni organizados. Datos tabulados, textos, imágenes, videos, audios, registros (logs), JSON, etc. No relacional
Lenguaje de las consultasSequelPython, Sequel, Java, R.
HardwareUn sólo servidor es suficienteRequiere más de un servidor.
ValorInteligencia mercantil, análisis y reportabilidadMinado de datos complejo para la búsqueda de patrones, recomendaciones y predicciones basadas en análisis de estructura de datos.
OptimizaciónLos datos pueden ser mejorados de manera mecánica (intervención humana).Requiere de aprendizaje virtual para la optimización de su funcionamiento (machine learning).
AlmacenamientoAlmacenado en servidores locales al interior de un domicilio o empresa/organización.Generalmente requiere de espacios en la nube o externos para el almacenamiento de datos.
RRHHAnalistas de datos, Administradores de bases de datos, Ingenieros de datosCientíficos de datos, Analistas de datos, Administradores de bases de datos, Ingenieros de datos.
SeguridadPrivilegios o permisos, Encriptación, Codificación, etc.Dar seguridad a estos datos es más complejo. Se usan generalmente la encriptación de datos, el aislamiento de datos en red por clústeres, altos protocolos de acceso, etc.
NomenclaturaBases de datos, Almacén de datos, Mercado de datos.Lago de datos
InfraestructuraAsignación de recursos predecible, principalmente conformado por hardware escalable verticalmenteInfraestructura más ágil con hardware escalable horizontalmente
Rituraj, S. (2021). Differences between Small Data and Big Data. Geek For Geeks.

Con estos datos comparativos, queda manifiesta la gran diferencia entre nuestro modo de recolectar datos y procesarlos de manera local y organizada versus las nuevas formas de trabajar con la inmensidad de datos generada a cada segundo en todo el mundo, lo que plantea nuevas oportunidades y desafíos para el mundo civilizado.

Texto Traducido y Adaptado del original disponible en Geeks4Geeks.Org