8 abr 2023

CIENCIA Y FICCION






Suenan las alarmas y crece el temor frente a sus capacidades inexploradas
Inteligencia artificial: ¿de qué manera los Estados y los organismos internacionales podrán regular su avance?



Por Pablo Esteban

8 de abril de 2023


. Imagen: AFP

Días atrás, más mil personalidades, entre ellas Elon Musk, pidieron pausar el aprendizaje automático. El mes pasado, cien expertos latinoamericanos señalaron los riesgos de la IA. ¿Cuál es el precio del progreso y quiénes serán los beneficiados?

Más allá de su impacto real en la vida de las personas, si de algo se puede estar seguros es de que desde unos meses hasta esta parte, la Inteligencia Artificial (IA) domina la escena pública y la agenda mediática. Y, de hecho, también se puede prever que la dominará durante los próximos años. ¿Por qué? Porque las compañías más poderosas del mundo han iniciado una carrera tecnológica a todo galope y los Estados junto a organismos internacionales calculan y recalculan estrategias para adivinar cómo controlar un fenómeno que en breve podría explotarles en la cara.

Días atrás, referentes como el CEO de Twitter, Tesla y Space X, Elon Musk, y el cofundador de Apple, Steve Wozniak, firmaron una carta en la que instaban a “pausar inmediatamente” el entrenamiento de los sistemas de IA, al menos por seis meses. La misiva, firmada por miles de especialistas, entre ellos, el best seller e historiador israelí Yuval Harari, fue publicada en el sitio del Future of Life Institute. En el texto, se podía entrever: "Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad”; al tiempo que instaba a "planificar y administrar con el cuidado y los recursos correspondientes".


Es curioso el hecho de que personalidades como Elon Musk soliciten frenar la marcha, precisamente cuando ellos mismos, hace apenas unos meses, echaban leña al fuego. El magnate, por caso, es uno de los principales accionistas de Open IA, la compañía responsable de la creación del programa Chat GPT. El propio Sam Altman, ejecutivo de esa firma, confesó “estar un poco asustado” por el hecho de que el entrenamiento tan veloz de las máquinas pudiera contribuir a resultados muy negativos para las poblaciones. Un derrotero similar al que siguió el propio Frankenstein, que adquirió vida a principios del siglo XIX, a instancias del talento de la jovencísima Mary Shelley.

Hacia mediados de marzo, más de cien especialistas de la región realizaron un llamamiento para “una inteligencia artificial latinoamericana al servicio de las personas”. Fue en el marco del Encuentro Latinoamericano de Inteligencia Artificial 2023, realizado en Montevideo. Se trató de la primera vez que la comunidad científica y tecnológica de la región reflexionó desde una perspectiva de los derechos humanos sobre este fenómeno creciente en todos los ámbitos de la sociedad. Y fue la excusa para colocar en superficie la misma premisa: la IA debe ser regulada.
La osadía de ponerse de acuerdo

Si se repasa la bibliografía al respecto, a grandes rasgos, existen dos marcos normativos internacionales que pueden servir como referencia para aplicarse en el orden nacional. Uno de ellos corresponde a la Recomendación sobre la ética de la Inteligencia Artificial de Unesco. Natalia Zuazo, especialista en política y tecnología, lo cuenta del siguiente modo. “Se trata de principios generales que fueron confeccionados con el objetivo de que luego se adecuen a nivel doméstico por las diferentes agencias gubernamentales”.

Por otro lado, la Unión Europea avanza hacia una regulación distinta aunque complementaria. “En este caso, cada país tendrá una autoridad y una ciudad cabecera que supervisará los lineamientos vinculados a la IA”, especifica Zuazo. España, por caso, es una de las naciones que marcha a buen ritmo en el rubro porque posee una Secretaría de Estado de Digitalización e Inteligencia Artificial. Italia bloqueó a fin de marzo el uso del ChatGPT por "no respetar la privacidad de los usuarios".

La Casa Blanca también exploró iniciativas autóctonas. En octubre de 2022, el gobierno de Joe Biden difundió una Carta de Derechos de Inteligencia Artificial. Se trata de un plan que no fija acciones específicas de ejecución, pero se presenta como un llamado a la acción con el propósito de proteger, ante el avance de la IA, los derechos digitales y civiles. Incluso Argentina dio los primeros pasos en la materia, a partir de la actualización de las normas para proteger datos personales y la estrategia nacional de ciberseguridad.

Según Zuazo, más allá de las diferencias, existen características comunes y principios transversales a cualquier intento de regular el avance de las Inteligencias Artificiales. Las IA deben responder al mandato de proporcionalidad y no causar daño; garantizar la seguridad y la protección de las personas y sus datos; así como también asegurar el cumplimiento de la equidad y la no discriminación. “Esto se establece para los casos en que se crean mecanismos automatizados que podrían dejar afuera a determinadas personas por alguna de sus características físicas, sociales o culturales”, apunta la especialista y consultora de la Unesco. Otros de los parámetros comunes se vinculan con la sostenibilidad ambiental; el derecho a la privacidad y a la protección de datos; la transparencia de los datos, la responsabilidad y rendición de cuentas; la sensibilización y la alfabetización de los diferentes grupos sociales.

Más allá de que existan orientaciones para regular el impulso de las mentes artificiales a nivel global y local, las tecnologías avanzan tan rápido que representan un fenómeno que requiere de una intervención inmediata. Después de todo, ¿qué sucederá una vez que se cumplan los hipotéticos seis meses de pausa que solicitaron Musk, Wozniak y compañía?
Usos maliciosos

El sitio de divulgación científica El gato y la caja difundió, de manera reciente, cinco usos maliciosos que subyacen a las inteligencias artificiales. La lista está compuesta por la usurpación de voces y la posibilidad de estafas telefónicas, la confección de videos falsos realizados en base a entrevistas reales, la falsificación de imágenes, la simulación de relaciones emocionales para la manipulación de víctimas y la fabricación de opinión pública.

En síntesis, el avance de las IA puede contribuir a una práctica de desinformación tan marcada que en el futuro cercano volverá cada vez más difícil la distinción entre lo verdadero y lo falso. Como suele explicar Emmanuel Iarussi, científico del Conicet y especialista en inteligencia artificial, aunque en el pasado ya existían técnicas más rudimentarias para trastocar las cosas (como Photoshop, por caso), con los avances conseguidos hasta la fecha, todas las barreras se han quebrado. “No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva”, observa. Basta con saber escribir y tener acceso a la tecnología como para ocasionar un descalabro. El poder de fuego es tan magnífico como terrorífico.

Será muy fácil, en este sentido, manipular información sensible si el objetivo es afectar los intereses y el prestigio de personas e instituciones. Frente a ello, resulta inevitable pensar en las instancias de regulación que se pueden ejercer sobre estas mentes artificiales que, según parece, amenzan con salirse de control.

En la carta difundida en Future of Life Institute también se presentaban interrogantes como: “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?".

La IA no modificará el futuro del trabajo, sino que ya lo está haciendo. Ya se han visto telefonistas, empleados de peaje, operarios, pero también enfermeros, artistas, docentes y abogados, cuyas tareas principales podrían ser realizadas por máquinas de manera automatizada y eficaz. Lo que aun significa más, ni los científicos escapan a las transformaciones que plantean los sistemas inteligentes. Esta semana, recorrió el mundo la historia de Rafael Luque, uno de los investigadores más prolíficos del mundo que fue suspendido de sueldo y de empleo por 13 años. Recibió esa pena tras comprobarse, entre otras cosas, que utilizaba al Chat GPT para “pulir sus trabajos”. En 2022 firmó 110 artículos y en 2023 ya llevaba 58. Hizo trampa, uso a las máquinas y lo pagará caro.



pablo.esteban@pagina12.com.ar