Tecnofobia
Por Nieves y Miro Fuenzalida
En 29/04/2022
¿Es la tecnología destructora de la vida, preservadora de la vida o sólo un mero instrumento neutral? ¿Es, por ejemplo, el IPhone la muestra de una tecnología que nos está transformando en zombis o un instrumento vital que nos permite estar informados, entretenidos e, incluso, políticamente activos? La tecnología, y esto no es una sorpresa para nadie, siempre ha sido parte del desarrollo humano y sin ella no seríamos lo que somos.
Según pensadores tecnofóbicos como Jacques Ellul, Martin Heidegger, Herber Marcuse, Lewis Mumford y Ted Kaczynski, el “infame” Unabomber, la cuestión no es ésta, sino que la cosa es si el progreso tecnológico concuerda con el progreso humano, si la tecnología esta ayudando a lograr nuestros fines o, por el contrario, está determinando nuestros fines. Pensemos por un momento sólo en ésto.
Compramos dispositivos para satisfacer nuestras necesidades, pero, una vez comprados, quedamos tan fascinados o dependientes de ellos que desarrollamos nuevas necesidades y nuevos dispositivos sólo para mantener su funcionamiento. Heidegger, en uno de sus últimos escritos, decía que en todas partes permanecemos sin libertad y encadenados a la tecnología, ya sea que la afirmemos o la neguemos apasionadamente. Y la peor manera posible de entregarnos a ella, dice, es cuando la consideramos como algo neutral.
Es esta creencia, a la que hoy nos gusta rendirle homenaje, la que nos deja más vulnerables y nos ciega por completo a la esencia de la tecnología. La característica definitoria de la tecnología moderna, continua, es la reducción de la naturaleza a una mera fuerza de energía controlable que la tecnología extrae, cosecha y almacena y es esto lo que la hace ver como un mero medio al servicio de nuestros fines y necesidades.
Y es justamente esta idea la que nos ciega al hecho de que hemos caído bajo el dominio de la instrumentalidad, de que nosotros mismos nos hemos convertidos en instrumentos para la tecnología. La actividad basada en datos es la expresión contemporánea de nuestra creciente voluntad de permitir que las tecnologías regulen y controlen nuestra vida diaria. Si en los tiempos pasados necesitábamos que otros humanos nos ordenaran y nos dieran tareas para ocuparnos, hoy hay una aplicación para eso.
Netflix puede decirnos que mirar, Amazon puede decirnos que comprar, Google nos puede decir que pensar y eHarmony puede decirnos a quien amar. En otras palabras, dice el escritor Nolen Gertz, hemos reemplazado la regularidad irreflexiva mecanicista con la regularidad irreflexiva algorítmica de las predicciones, las opciones y los comandos basados en datos. A pesar de que éstos pueden ser invasivos, el progreso tecnológico pareciera medirse más y más, no por la protección de nuestra privacidad, sino por la precisión de las predicciones de los algoritmos.
En lugar del “Big Brother” hoy tenemos el “Big Data” que voluntariamente invitamos a nuestras casas, a nuestros dispositivos y a nuestros cuerpos. El ejemplo más común de la obediencia ciega basada en datos es nuestra creciente dependencia de los algoritmos. Google no solo predice lo que estamos buscando, sino que nos dice cuando lo hemos encontrado. Los algoritmos de Amazon no solo predicen lo que queremos comprar, sino que nos dicen cuando debemos comprarlos. Facebook no solo predice con quién queremos ser amigos, sino que nos dice cuéndo y con quién debemos querer mantenernos en contacto.
Lo que está en cuestión aquí no es que estos algoritmos afirmen conocernos, sino que les creemos. Ellos hacen recomendaciones que se supone son adecuadas a nosotros. Pero, la cosa es que no tenemos forma de saber y en qué medida tales recomendaciones son verdaderas. Con frecuencia ni siquiera estamos conscientes de los algoritmos que actúan detrás de las cortinas de la tecnología con las que interactuamos.
Un investigador que estudiaba cómo se comportan las personas en línea debido a los algoritmos encontró que los participantes de la investigación no sabían que su comportamiento estaba siendo influído por algoritmos. El 60% de estas personas no sabia que Facebook estaba filtrando sus fuentes de noticias. Incluso si estamos conscientes de tales algoritmos, dice Gertz, todavía no estamos conscientes de qué saben los algoritmos acerca de nosotros y de cómo se utilizan esos datos.
En buenas cuentas, los algoritmos pueden aprender sobre nosotros, pero nosotros no podemos aprender sobre ellos y este es un arreglo que no solo aceptamos, sino que activamente participamos en él a diario, incluso cuando intentamos luchar en contra de ellos. Estos algoritmos son programas de computadoras que contienen una serie de instrucciones diseñadas de tal modo que los programas informáticos pueden clasificar cantidades masivas de datos para perfilar, juzgar y determinar, por ejemplo, lo que suele gustarle o no a la gente como tú o yo.
¿Cómo pueden los algoritmos predecir nuestras conductas? Es que nos hemos vueltos predecibles. Esto es algo que nos hacemos los unos a los otros a través de las costumbres, la moral y la civilidad que nos indican cómo comportarnos correctamente. El precio de esta predictibilidad es que no sólo nos hemos transformados en seres uniformes, regulares y calculables, sino también en sujetos desindividualizados. La individualidad es peligrosa porque es impredecible y lo que la sociedad quiere es, por el contrario, la conformidad y la regularidad.
El reemplazo de la identidad personal por nuestro deseo de aceptación personal puede ayudar a explicar porqué estamos tan dispuestos a vivir determinados por los algoritmos. Esta predictibilidad de las conductas humanas ciertamente no es nada nuevo. La manipulación, el adoctrinamiento, el condicionamiento y la tortura tienen una historia milenaria, pero, al menos, eran procesos humanos, algo que nos hacíamos unos a otros. Lo que es nuevo ahora es que este trabajo realizado por el humano sobre sí mismo ya no está siendo dirigido únicamente por humanos.
Los algoritmos no sólo son medios con los que obtenemos nuestros datos, sino que ellos también activamente están moldeando nuestras conductas e identidades. Como nota Gertz con el reemplazo del “Big Brother” por el “Big Data” tal vez hemos perdido la única gota de esperanza a la que todavía podíamos aferrarnos, a la creencia de que incluso si la mayoría de los humanos hemos sido reducidos a meros títeres, todavía quedaban algunos humanos que no eran títeres y que eran los que tiraban los hilos.
¿Podríamos decir lo mismo hoy día? Aunque los instrumentos y las creencias que cubren la manipulación y el adoctrinamiento de la población han cambado, lo que no ha cambiado es la idea de que el conocimiento se pueda convertir en poder. Alguien esta recopilando datos, escribiendo algoritmos y beneficiándose con ello. Pero, la gran mayoría de nosotros no sabemos qué es lo que los algoritmos saben y cómo ellos funcionan debido al secreto, según la presunción prevalente.
Si hay una “caja negra” que contiene la infraestructura algorítmica, es porque los diseñadores construyeron tal “caja” a partir de una compleja mezcla matemática, legal y burocrática. Su conocimiento, entonces, es posible y si los que estamos siendo impulsados por lo que estáa dentro de “la caja” no tenemos este conocimiento es porque no tenemos acceso a él o, al menos, no todavía. En principio, podríamos acceder a él si adquirimos esa especialización cognitiva.
Aquí uno podría preguntar si realmente es éste el caso. Tal vez la suposición de que siempre hay un ser humano en “el circuito” ya no corresponde a los hechos. Según Andrew Moore, ex vicepresidente de Google, los codificadores escriben algoritmos. Los algoritmos producen resultados. Pero la forma en que se produjeron estos resultados no está clara, no sólo para aquellos de quienes se tratan los resultados, sino también para los mismos autores de los códigos que producen los resultados.
Mientras las máquinas aprenden más y más acerca de nosotros, nosotros aprendemos menos y menos acerca de ellas. Y esto no porque las máquinas nos engañen, sino porque ellas, según Moore, no son tan inteligentes, ya que solo siguen las reglas. Y lo curioso es que cada vez más se esta dando el caso de que nadie sabe cómo estas máquinas están siguiendo las reglas o qué información se incluye o excluye.
¿Por qué, entonces, a pesar de que nadie sabe realmente cómo funcionan estos algoritmos, todavía confiamos en ellos? Nietzsche diría que es porque nadie sabe cómo los algoritmos funcionan. Mientras mayor sea la opacidad, mayor el misterio y mayor la fe. Los humanos son falibles y cuanto menos sea el papel que ellos jueguen en los algoritmos, más grande es el aura de infalibilidad que los rodea. Sabemos que los algoritmos cometen errores, pero éstos son atribuidos a errores humanos, no mecánicos.
Si una predicción algorítmica, dice Gertz, recomienda incorrectamente un producto, si niega incorrectamente un préstamo bancario o un dron apunta incorrectamente al objetivo deseado, se cree que éste es el resultado de una parcialidad o prejuicio humano o a una falta de información en el diseño del algoritmo. La primera excusa puede usarse para justificar el reemplazo de humanos por máquinas, en tanto que la segunda puede usarse para justificar aún más el reemplazo de los valores humanos, como la privacidad, por los valores de la máquina, como la eficiencia, por ejemplo.
A medida que los algoritmos se vuelven más complejos y más integrados en la sociedad, es cada vez mas probable que nos quedemos sin otra alternativa que tratar de que los algoritmos “buenos” luchen contra los algoritmos “malos” . Al final terminamos de todas maneras con que las decisiones las hacen los algoritmos. Podemos cerrar nuestras aplicaciones y dispositivos con la ilusión de que podemos escapar a su influencia, pero en última instancia ellos no se desconectan de nosotros.
Las nuevas tecnologías digitales son invasivas no solo en términos de nuestra privacidad, sino también en términos de nuestra perceptividad. Podemos pasear en el parque sin teléfono con el fin de encontrar una experiencia sin intermediarios y, aun así, seguimos experimentando el mundo a través de nuestros dispositivos. Si vemos, por ejemplo, una rosa de un brillante amarillo la percibimos no solamente como hermosa, sino como digna de Instagram o cuando experimentamos un evento lo experimentamos no sólo como algo memorable sino también como algo digno de Twitter.
Perfeccionar las tecnologías, ¿ayuda o dificulta nuestros intentos de mejorarnos? Y, más importante… ¿qué significa “mejorar”?
* Profesores de Filosofia chilenos graduados en la Universidad de Chile. Residen en Ottawa, Canadá, desde el 1975. Nieves estuvo 12 meses presa en uno de los campos de concentración durante la dictadura de Augusto Pinochet. Han publicado seis libros de ensayos y poesía. Colaboradores de surysur.net y del Centro Latinoamericano de Análisis Estratégico (CLAE)
Estrategia.la
En 29/04/2022
¿Es la tecnología destructora de la vida, preservadora de la vida o sólo un mero instrumento neutral? ¿Es, por ejemplo, el IPhone la muestra de una tecnología que nos está transformando en zombis o un instrumento vital que nos permite estar informados, entretenidos e, incluso, políticamente activos? La tecnología, y esto no es una sorpresa para nadie, siempre ha sido parte del desarrollo humano y sin ella no seríamos lo que somos.
Según pensadores tecnofóbicos como Jacques Ellul, Martin Heidegger, Herber Marcuse, Lewis Mumford y Ted Kaczynski, el “infame” Unabomber, la cuestión no es ésta, sino que la cosa es si el progreso tecnológico concuerda con el progreso humano, si la tecnología esta ayudando a lograr nuestros fines o, por el contrario, está determinando nuestros fines. Pensemos por un momento sólo en ésto.
Compramos dispositivos para satisfacer nuestras necesidades, pero, una vez comprados, quedamos tan fascinados o dependientes de ellos que desarrollamos nuevas necesidades y nuevos dispositivos sólo para mantener su funcionamiento. Heidegger, en uno de sus últimos escritos, decía que en todas partes permanecemos sin libertad y encadenados a la tecnología, ya sea que la afirmemos o la neguemos apasionadamente. Y la peor manera posible de entregarnos a ella, dice, es cuando la consideramos como algo neutral.
Es esta creencia, a la que hoy nos gusta rendirle homenaje, la que nos deja más vulnerables y nos ciega por completo a la esencia de la tecnología. La característica definitoria de la tecnología moderna, continua, es la reducción de la naturaleza a una mera fuerza de energía controlable que la tecnología extrae, cosecha y almacena y es esto lo que la hace ver como un mero medio al servicio de nuestros fines y necesidades.
Y es justamente esta idea la que nos ciega al hecho de que hemos caído bajo el dominio de la instrumentalidad, de que nosotros mismos nos hemos convertidos en instrumentos para la tecnología. La actividad basada en datos es la expresión contemporánea de nuestra creciente voluntad de permitir que las tecnologías regulen y controlen nuestra vida diaria. Si en los tiempos pasados necesitábamos que otros humanos nos ordenaran y nos dieran tareas para ocuparnos, hoy hay una aplicación para eso.
Netflix puede decirnos que mirar, Amazon puede decirnos que comprar, Google nos puede decir que pensar y eHarmony puede decirnos a quien amar. En otras palabras, dice el escritor Nolen Gertz, hemos reemplazado la regularidad irreflexiva mecanicista con la regularidad irreflexiva algorítmica de las predicciones, las opciones y los comandos basados en datos. A pesar de que éstos pueden ser invasivos, el progreso tecnológico pareciera medirse más y más, no por la protección de nuestra privacidad, sino por la precisión de las predicciones de los algoritmos.
En lugar del “Big Brother” hoy tenemos el “Big Data” que voluntariamente invitamos a nuestras casas, a nuestros dispositivos y a nuestros cuerpos. El ejemplo más común de la obediencia ciega basada en datos es nuestra creciente dependencia de los algoritmos. Google no solo predice lo que estamos buscando, sino que nos dice cuando lo hemos encontrado. Los algoritmos de Amazon no solo predicen lo que queremos comprar, sino que nos dicen cuando debemos comprarlos. Facebook no solo predice con quién queremos ser amigos, sino que nos dice cuéndo y con quién debemos querer mantenernos en contacto.
Lo que está en cuestión aquí no es que estos algoritmos afirmen conocernos, sino que les creemos. Ellos hacen recomendaciones que se supone son adecuadas a nosotros. Pero, la cosa es que no tenemos forma de saber y en qué medida tales recomendaciones son verdaderas. Con frecuencia ni siquiera estamos conscientes de los algoritmos que actúan detrás de las cortinas de la tecnología con las que interactuamos.
Un investigador que estudiaba cómo se comportan las personas en línea debido a los algoritmos encontró que los participantes de la investigación no sabían que su comportamiento estaba siendo influído por algoritmos. El 60% de estas personas no sabia que Facebook estaba filtrando sus fuentes de noticias. Incluso si estamos conscientes de tales algoritmos, dice Gertz, todavía no estamos conscientes de qué saben los algoritmos acerca de nosotros y de cómo se utilizan esos datos.
En buenas cuentas, los algoritmos pueden aprender sobre nosotros, pero nosotros no podemos aprender sobre ellos y este es un arreglo que no solo aceptamos, sino que activamente participamos en él a diario, incluso cuando intentamos luchar en contra de ellos. Estos algoritmos son programas de computadoras que contienen una serie de instrucciones diseñadas de tal modo que los programas informáticos pueden clasificar cantidades masivas de datos para perfilar, juzgar y determinar, por ejemplo, lo que suele gustarle o no a la gente como tú o yo.
¿Cómo pueden los algoritmos predecir nuestras conductas? Es que nos hemos vueltos predecibles. Esto es algo que nos hacemos los unos a los otros a través de las costumbres, la moral y la civilidad que nos indican cómo comportarnos correctamente. El precio de esta predictibilidad es que no sólo nos hemos transformados en seres uniformes, regulares y calculables, sino también en sujetos desindividualizados. La individualidad es peligrosa porque es impredecible y lo que la sociedad quiere es, por el contrario, la conformidad y la regularidad.
El reemplazo de la identidad personal por nuestro deseo de aceptación personal puede ayudar a explicar porqué estamos tan dispuestos a vivir determinados por los algoritmos. Esta predictibilidad de las conductas humanas ciertamente no es nada nuevo. La manipulación, el adoctrinamiento, el condicionamiento y la tortura tienen una historia milenaria, pero, al menos, eran procesos humanos, algo que nos hacíamos unos a otros. Lo que es nuevo ahora es que este trabajo realizado por el humano sobre sí mismo ya no está siendo dirigido únicamente por humanos.
Los algoritmos no sólo son medios con los que obtenemos nuestros datos, sino que ellos también activamente están moldeando nuestras conductas e identidades. Como nota Gertz con el reemplazo del “Big Brother” por el “Big Data” tal vez hemos perdido la única gota de esperanza a la que todavía podíamos aferrarnos, a la creencia de que incluso si la mayoría de los humanos hemos sido reducidos a meros títeres, todavía quedaban algunos humanos que no eran títeres y que eran los que tiraban los hilos.
¿Podríamos decir lo mismo hoy día? Aunque los instrumentos y las creencias que cubren la manipulación y el adoctrinamiento de la población han cambado, lo que no ha cambiado es la idea de que el conocimiento se pueda convertir en poder. Alguien esta recopilando datos, escribiendo algoritmos y beneficiándose con ello. Pero, la gran mayoría de nosotros no sabemos qué es lo que los algoritmos saben y cómo ellos funcionan debido al secreto, según la presunción prevalente.
Si hay una “caja negra” que contiene la infraestructura algorítmica, es porque los diseñadores construyeron tal “caja” a partir de una compleja mezcla matemática, legal y burocrática. Su conocimiento, entonces, es posible y si los que estamos siendo impulsados por lo que estáa dentro de “la caja” no tenemos este conocimiento es porque no tenemos acceso a él o, al menos, no todavía. En principio, podríamos acceder a él si adquirimos esa especialización cognitiva.
Aquí uno podría preguntar si realmente es éste el caso. Tal vez la suposición de que siempre hay un ser humano en “el circuito” ya no corresponde a los hechos. Según Andrew Moore, ex vicepresidente de Google, los codificadores escriben algoritmos. Los algoritmos producen resultados. Pero la forma en que se produjeron estos resultados no está clara, no sólo para aquellos de quienes se tratan los resultados, sino también para los mismos autores de los códigos que producen los resultados.
Mientras las máquinas aprenden más y más acerca de nosotros, nosotros aprendemos menos y menos acerca de ellas. Y esto no porque las máquinas nos engañen, sino porque ellas, según Moore, no son tan inteligentes, ya que solo siguen las reglas. Y lo curioso es que cada vez más se esta dando el caso de que nadie sabe cómo estas máquinas están siguiendo las reglas o qué información se incluye o excluye.
¿Por qué, entonces, a pesar de que nadie sabe realmente cómo funcionan estos algoritmos, todavía confiamos en ellos? Nietzsche diría que es porque nadie sabe cómo los algoritmos funcionan. Mientras mayor sea la opacidad, mayor el misterio y mayor la fe. Los humanos son falibles y cuanto menos sea el papel que ellos jueguen en los algoritmos, más grande es el aura de infalibilidad que los rodea. Sabemos que los algoritmos cometen errores, pero éstos son atribuidos a errores humanos, no mecánicos.
Si una predicción algorítmica, dice Gertz, recomienda incorrectamente un producto, si niega incorrectamente un préstamo bancario o un dron apunta incorrectamente al objetivo deseado, se cree que éste es el resultado de una parcialidad o prejuicio humano o a una falta de información en el diseño del algoritmo. La primera excusa puede usarse para justificar el reemplazo de humanos por máquinas, en tanto que la segunda puede usarse para justificar aún más el reemplazo de los valores humanos, como la privacidad, por los valores de la máquina, como la eficiencia, por ejemplo.
A medida que los algoritmos se vuelven más complejos y más integrados en la sociedad, es cada vez mas probable que nos quedemos sin otra alternativa que tratar de que los algoritmos “buenos” luchen contra los algoritmos “malos” . Al final terminamos de todas maneras con que las decisiones las hacen los algoritmos. Podemos cerrar nuestras aplicaciones y dispositivos con la ilusión de que podemos escapar a su influencia, pero en última instancia ellos no se desconectan de nosotros.
Las nuevas tecnologías digitales son invasivas no solo en términos de nuestra privacidad, sino también en términos de nuestra perceptividad. Podemos pasear en el parque sin teléfono con el fin de encontrar una experiencia sin intermediarios y, aun así, seguimos experimentando el mundo a través de nuestros dispositivos. Si vemos, por ejemplo, una rosa de un brillante amarillo la percibimos no solamente como hermosa, sino como digna de Instagram o cuando experimentamos un evento lo experimentamos no sólo como algo memorable sino también como algo digno de Twitter.
Perfeccionar las tecnologías, ¿ayuda o dificulta nuestros intentos de mejorarnos? Y, más importante… ¿qué significa “mejorar”?
* Profesores de Filosofia chilenos graduados en la Universidad de Chile. Residen en Ottawa, Canadá, desde el 1975. Nieves estuvo 12 meses presa en uno de los campos de concentración durante la dictadura de Augusto Pinochet. Han publicado seis libros de ensayos y poesía. Colaboradores de surysur.net y del Centro Latinoamericano de Análisis Estratégico (CLAE)
Estrategia.la