INTELIGENCIA ARTIFICIAL CAPITALISMO

¿Inteligencia capitalista?

La inteligencia artificial (IA) está actualmente en boga de todos/as. No pasa semana sin que leamos artículos sobre el tema, escuchemos noticias en la radio o aparezca en series. Desde diferentes perspectivas, donde priman muy a menudo la distopía o el tecno-optimismo acrítico, se nos narra el impacto que la IA tiene y tendrá en nuestro presente y futuro, en nuestras vidas personales, laborales o incluso en nuestros momentos de ocio. En este contexto, creemos que es interesante recoger textos que huyen de este falso debate de titulares y que, desde posiciones antagonistas, tratan de analizar en profundidad este tema. Es por ello que hemos traducido parte de un muy extenso artículo publicado el pasado otoño en el número 112 de la revista alemana Wildcat. El artículo completo puede encontrarse en su web, en alemán, o en inglés en la web del colectivo Angry Workers of The World.

El 30 de noviembre de 2022 se lanzó ChatGPT, una IA conversacional o, como se la conoce, un «modelo de lenguaje grande». Por primera vez, una IA generativa que puede crear textos independientes y pretender comprender las preguntas que se le hacen estuvo disponible públicamente de forma gratuita. En cinco días, un millón de personas se habían registrado en el sitio web chat.openai.com. En enero de 2023, esta cifra había aumentado a cien millones. Fue un golpe de genialidad para OpenAI (Microsoft) hacer que su chatbot fuera de acceso público. Ningún departamento de marketing podría haberlo publicitado mejor que el histérico debate que siguió. Todos los competidores tuvieron que hacer lo mismo y también publicar sus chatbots.

¿Qué hay detrás del revuelo que rodea a la IA?

¿Por qué vemos ahora tal auge en la IA? ¿Y por qué los chatbots, precisamente, lo desencadenaron? Por un lado, las empresas tecnológicas necesitaban urgentemente un nuevo modelo de negocio. A esto se añade que el lenguaje se considera un signo de inteligencia y existe claramente una gran necesidad social de interlocutores para el diálogo. Y en tercer lugar, si bien cada vez hay menos innovaciones fundamentales, las expectativas sobre ellas están aumentando.

Crisis tecnológica

Los generadores de texto, voz e imágenes (la ‘IA generativa’) son los motores con los que las cinco grandes empresas tecnológicas Apple, Amazon, Facebook, Google y Microsoft están intentando salir de la crisis de las ‘big tech’ de 2021 y 2022, durante la cual despidieron a 200.000 empleados. Los cinco grandes dominan más del 90 por ciento del mercado de la IA. Una sexta empresa, Nvidia, se lleva la mayor tajada del pastel al proporcionar el hardware. Nvidia solía producir tarjetas gráficas, y todavía lo hace, pero hace poco más de diez años se descubrió que las unidades de procesamiento de gráficos (GPU) tienen una enorme potencia de cálculo paralelo. El primer auge se produjo para juegos, el segundo en la minería de criptomonedas, y ahora es la IA generativa. Las GPU son conocidas por consumir grandes cantidades de electricidad.

Después de años de pérdidas, el ascenso de las bolsas estadounidenses en 2023 depende de sólo siete empresas (además de las mencionadas anteriormente, Tesla es la séptima). A mediados de julio de 2023, estas siete empresas representaban el 60 por ciento del Nasdaq 100, un importante índice de acciones tecnológicas. El auge se basa en una única expectativa: que “la IA lo cambiará todo”. Aun así, económicamente todavía no ha habido un aumento suficiente para compensar la recesión en la industria de los chips, cuyo volumen de ventas y beneficios se están desplomando.

Existe una necesidad social de chatbots

Joseph Weizenbaum construyó el primer chatbot en 1966. Su ELIZA ya podía simular ser humano en conversaciones breves y escritas. A Weizenbaum le sorprendió que mucha gente confiara sus secretos más íntimos a este programa relativamente sencillo. Estaban convencidos de que el «interlocutor de diálogo» comprendía realmente sus problemas, porque las respuestas a sus preguntas parecían «humanas». Hoy en día, muchos chatbots aprovechan el llamado «efecto Eliza». Un subproducto no deseado se ha convertido en un éxito de ventas y en un modelo de negocio.

Los chatbots se entrenan con grandes cantidades de datos de diálogos humanos y, por lo tanto, también pueden repetir la expresión de emociones. Todos ellos parecen estar diseñados como una especie de estafador romántico. Para fingir comprensión o en aras de una buena historia, a estos modelos les gusta inventar espontáneamente fuentes y supuestos hechos. Estas “alucinaciones sociales” (Emily Bender) son deseables y se utilizan para fidelizar a los clientes.

Lo que muchos usuarios no entienden, es que también están alimentando y entrenando a la IA con nuevos datos a través de sus preguntas. A principios de 2023, Samsung descubrió que el código del programa de sus desarrolladores se había subido a ChatGTP. A mediados de año, Samsung, Morgan Chase Bank, Verizon, Amazon, Walmart y otros prohibieron oficialmente a sus empleados el uso de chatbots en los ordenadores de la empresa. Tampoco se les permite ingresar ninguna información relacionada con la empresa o datos personales en la IA generativa en sus dispositivos personales.

Pocas innovaciones reales

Casi nadie cree todavía que el mundo se convertirá en un lugar agradable en un futuro cercano. Las crisis ecológicas se acumulan cada vez más, las guerras se acercan y los problemas sociales aumentan.

Quizás esta sea la razón por la que las energías utópicas están cada vez más ligadas a la tecnología, ya sea la fusión nuclear, los coches eléctricos o la inteligencia artificial. Sin embargo, las tecnologías capitalistas no crean un mundo nuevo, conservan el antiguo. Weizenbaum dijo en una entrevista en 1985 que la invención de la computadora había salvado principalmente el status quo. Su ejemplo: mientras el sistema financiero y bancario seguía creciendo, apenas era controlable mediante transferencias manuales y cheques. La computadora resolvió este problema. Todo siguió como antes, sólo que digitalizado y, por tanto, más rápido.

A principios de 2023, la revista Nature publicó un estudio según el cual los “hallazgos innovadores” se han vuelto menos frecuentes. Estudios anteriores ya lo habían demostrado en relación con el desarrollo de semiconductores y medicamentos, por ejemplo. Muchas cosas son simplemente mejoras de un invento que ya se ha realizado, no «innovaciones reales». El progreso científico y tecnológico se ha desacelerado a pesar del continuo aumento del gasto en ciencia y tecnología, y del aumento significativo del número de trabajadores del conocimiento. El artículo de Nature considera que la causa es demasiado conocimiento y demasiada especialización. La cantidad de conocimiento científico y técnico ha aumentado a pasos agigantados en las últimas décadas, y la literatura científica se ha duplicado cada 17 años. Sin embargo, existe una gran diferencia entre la disponibilidad del conocimiento y su uso real. Los científicos se centran cada vez más en temas concretos y, sobre todo, se citan a sí mismos (financiación por terceros, publicar o perecer).

«La IA me parece tranquilizadoramente estúpida «
(el comediante alemán Helge Schneider)

La IA está en todas partes. Especialmente en publicidad. Los teléfonos inteligentes y las tabletas clasifican las fotografías por tema, se desbloquean mediante reconocimiento facial, el ferrocarril utiliza el reconocimiento de imágenes para el mantenimiento, los proveedores de servicios financieros utilizan máquinas para evaluar el riesgo de los prestatarios…

Pero estos ejemplos no tienen nada que ver con la IA generativa. Son simplemente algoritmos para el análisis de big data. Por motivos de marketing, todo lo que tiene que ver con big data actualmente se denomina IA. Después de todo, incluso el bucle de programación más simple para el análisis de datos se puede vender de forma más eficaz de esta manera.

En 1959, el ingeniero eléctrico Arthur Samuel escribió un programa para el juego de mesa de damas, que por primera vez podía jugar mejor que los humanos. El gran avance fue que Samuel enseñó a una computadora central IBM a jugar contra sí misma y registrar qué movimiento aumentaba las posibilidades de ganar en cada situación de juego. El juego de máquinas contra máquinas y el aprendizaje en el proceso es el comienzo de la «inteligencia artificial»; artificial en verdad, pero ¿por qué «inteligencia»?

El término «inteligencia artificial» había sido inventado cuatro años antes por el informático estadounidense John McCarthy. Junto con muchos otros, investigaba el procesamiento de datos. Pero McCarthy no sólo quería seguir los pasos de otros. Quería recoger los laureles por algo propio. Así que en lugar de «cibernética», escribió «inteligencia artificial» en su solicitud a la Fundación Rockefeller para obtener financiación para el Proyecto de Investigación de Verano de Dartmouth.

McCarthy escribió más tarde que quería utilizar el término para «clavar la bandera al mástil». Pero estaba reemplazando la inteligencia por algo más. La palabra latina intellegere significa “realizar, comprender, captar”. La ‘inteligencia’ surge en la interacción con el entorno (no hay cognición sin cuerpo) y en la interacción social. La gente desarrolló un lenguaje para poder cocinar juntos. El sabor del chocolate y el olor del romero son experiencias cualitativas que no pueden almacenarse como «datos». Pero McCarthy había mostrado el camino: “simulación de estos procesos”, es decir, una simulación de la comprensión.

El uso que hizo McCarthy del término «redes neuronales» en su propuesta fue una estrategia publicitaria igualmente hábil. El término evoca imágenes de un cerebro artificial simulado con chips de ordenador. Pero las «redes neuronales de la IA» no se parecen en nada a la red de neuronas del cerebro. Son un proceso estadístico que se utiliza para organizar los llamados «nodos» en varias capas. Como regla general, un nodo está conectado a un subconjunto de nodos en la capa inferior. Si se desea que una computadora en particular pueda reconocer caballos, se la debe alimentar con muchas fotografías de caballos. A partir de ellos, el sistema extrae un ‘conjunto de características’: orejas, ojos, pezuñas, pelaje corto, etc. Si luego se va a evaluar una nueva imagen, el programa procede de forma jerárquica: la primera capa analiza sólo los valores de brillo, la siguiente capa horizontal y líneas verticales, la tercera formas circulares, la cuarta ojos, etc. Sólo la última capa constituye un modelo general.

El posterior ajuste consiste en elogiar al sistema cuando ha reconocido correctamente una imagen (se refuerzan las conexiones entre los nodos) o criticarlo cuando reconoce un perro como un caballo (se reordenan las conexiones entre los nodos). De esta manera, el sistema se vuelve más rápido y preciso, pero sin «comprender» nunca qué es un caballo.

Los chatbots crean lenguaje de esta manera. No son ni el tipo de IA más alto ni el más importante, ni el más poderoso ni el más peligroso. Cuando se trata de multiplicar números grandes, son inferiores a cualquier calculadora de bolsillo de los años 70. La tecnología detrás de la llamada «IA generativa» se basa esencialmente en inferencias estadísticas a partir de enormes cantidades de datos. La estadística es una ciencia auxiliar. Los economistas, epidemiólogos, sociólogos, etc. aplican la estadística «intuitivamente» para obtener una orientación aproximada en determinados contextos. Son conscientes de que las predicciones estadísticas rara vez son precisas; cometen errores y a veces conducen a callejones sin salida. Como resultado, la IA generativa presenta predicciones estadísticas. Esta es la base de su desempeño. Por definición, los modelos no pueden derivar ni justificar sus resultados. Se les entrena hasta que los resultados encajan.

Un chatbot une secuencias de formas lingüísticas a partir de sus datos de entrenamiento sin ninguna referencia al significado de las palabras. Cuando se le pregunta a ChatGPT qué es Berlín, responde que Berlín es la capital de Alemania. No porque tenga idea de qué es Berlín, qué ciudad es o dónde está situada Alemania, sino porque es la respuesta estadísticamente más probable.

Grandes datos

Es bastante loco generar lenguaje por máquina, basándose no en reglas lógicas y de significado, sino en la probabilidad de que una palabra o módulo de texto siga a otro, porque el proceso requiere enormes capacidades informáticas, un enorme consumo de energía y mucha reelaboración. Pero es precisamente esta locura la que está en el centro del modelo de negocio. Porque sólo las grandes empresas tecnológicas tienen centros de datos tan enormes y han acumulado los volúmenes de datos y el dinero necesarios durante las últimas dos décadas. Los grandes modelos lingüísticos son, por tanto, un modelo de negocio en el que nadie puede competir con ellos. Ni siquiera las instituciones de investigación estatales o las mejores universidades internacionales tienen las computadoras necesarias, ¡y mucho menos los datos!

Todo por hacer
https://www.todoporhacer.org/inteligencia-capitalista/

Deja un comentario