Inteligencia artificial aumenta el caos climático
A diario oímos el canto de los supuestos beneficios y promesas de lo que pueden hacer los sistemas de inteligencia artificial, pero con nula o poca visión crítica sobre sus impactos sociales, económicos y políticos. No obstante, existe mucha preocupación por el uso comercial y político de datos personales, el aumento de la discriminación y el racismo, la sustitución de empleos, y el desarrollo de armas y robots asesinos, entre otros aspectos de la aplicación de la inteligencia artificial. Ahora se suma que además estos sistemas tienen un enorme impacto ambiental y climático por su altísima demanda de energía y las emisiones de gases con efecto invernadero que ésta conlleva.
Un estudio de Emma Strubell, A. Ganesh y A. McCallum, de la Universidad de Massachusetts Amherst (junio 2019), estimó los impactos a partir del uso de energía y emisiones de carbono de algunos de esos sistemas. Encontraron que en sistemas que emulan redes neuronales, el entrenamiento de un solo sistema de inteligencia artificial genera hasta cinco veces más emisiones de carbono que un auto promedio de Estados Unidos en toda su vida útil, incluyendo fabricación y uso de combustible. ( https://arxiv.org/abs/1906.02243)
Se enfocaron en cuatro modelos de inteligencia artificial con aprendizaje profundo para procesamiento de lenguaje natural (PLN), que están entre los más usados: Transformer, ELMo, BERT y GPT-2. Todos han escalado notablemente sus capacidades en los últimos dos años. El GPT-2, de OpenAI, financiado por el empresario Elon Musk, generó polémica por su capacidad para inventar y completar frases, generando masivamente noticias falsas creíbles. Musk anunció que el sistema no tendrá fuente abierta, supuestamente para impedir su uso indiscriminado –y de paso mantener su monopolio.
El cálculo de impacto que usaron para el estudio se basa en el gasto energético de los equipos para procesamiento, electricidad y herramientas asociadas para entrenamiento de sistemas de inteligencia artificial. Strubel explicó a la revista New Scientist que para asimilar algo tan complejo como el lenguaje se necesita procesar una inmensa cantidad de datos. Un enfoque común es que lea miles de millones de textos para ver el significado de las palabras y cómo se construyen las frases. Esto requiere enorme capacidad de procesamiento, almacenamiento y energía. No quiere decir que entienda lo que lee, pero finalmente podrá imitar el uso que hacemos del lenguaje.
El estudio hace una comparación con otras fuentes de emisiones de carbono. En el caso de un automóvil, éste emite en promedio unas 57 toneladas de CO2 durante su vida útil. El entrenamiento de una unidad de inteligencia artificial que pueda descifrar y manejar lenguaje podría emitir hasta 284 toneladas de carbono, cinco veces más. Significa unas 315 veces las emisiones de un vuelo de costa a costa de Estados Unidos y 56 veces el consumo promedio de energía de un ser humano en toda su vida.
Las grandes empresas de plataformas digitales, como Amazon, Microsoft y Google, buscan que parte de la energía que usan provenga de fuentes renovables, pero esto no es ni lejanamente suficiente ante el crecimiento exponencial de la demanda que provocan.
Siendo grave, este es sólo uno de los ejemplos de la monstruosa demanda de energía para el desarrollo de la era digital, que se suma a otros impactos de ésta a las que generalmente no se asocian: el despojo y acumulación de materiales y recursos que son escasos, la contaminación ambiental que provoca la producción y desechos, el empeoramiento del cambio climático, además del impacto en salud, tanto el directo por radiaciones electromagnéticas de las redes de telefonía e Internet como los derivados de las otras formas de contaminación de esta industria.
El uso de inteligencia artificial es, además, tremendamente problemático en otros planos, porque al basarse en algoritmos determinados por las metas comerciales de los desarrolladores y su contexto económico y cultural repiten esquemas discriminadores y racistas. Por ejemplo, se están usando sistemas de inteligencia artificial en instituciones bancarias –para evaluación de créditos, préstamos, inversiones– e instituciones judiciales para gestionar sentencias, lugares de reclusión, etcétera. En ambos casos se ha demostrado que el sistema es discriminatorio y racista: por ejemplo, si la persona evaluada es negra o latina en Estados Unidos, el sistema lo evalúa automáticamente como menos confiable y más peligroso, supuestamente basado en el porcentaje histórico de personas detenidas y/o condenadas. Como esto ya es una base racista y discriminatoria, la inteligencia artificial lo afirma y aumenta.
Al igual que con las grandes plataformas digitales, la regulación y la supervisión independiente es inexistente o está fuertemente sesgada a favor de las poderosas empresas que deberían ser controladas. Hace falta mucho más debate y acción social sobre las implicaciones de estas tecnologías que nos afectan a todos. En ese sentido, saludamos la creación reciente de dos publicaciones que son colaboración de varias organizaciones sociales y activistas: la revista digital latinoamericana Internet Ciudadana y el portal Bot Populi sobre justicia digital, que por ahora está mayormente en inglés ( https://botpopuli.net/).
Fuente: La Jornada