top of page

La inteligencia artificial y la guerra

Por Remedios Copa / Nueva Revolución

Como todo en la vida la inteligencia artificial tiene sus pros y sus contras pero sobre todo, lo uno y lo otro, dependerá siempre del uso que se haga de ella y de cómo se aplique a la situación en cuestión.


No se puede negar que el avance tecnológico en el campo de la inteligencia artificial tiene muchos usos altamente positivos y que la robótica puede mejorar el rendimiento en muchos procesos de la industria e incluso sustituir al operario humano en tareas repetitivas, penosas o peligrosas. Un ejemplo de la utilidad altamente positiva de la robótica lo hemos visto en la exploración de los daños en los reactores en el accidente nuclear de Fukushima.


Pero como no todos los avances resultan al cien por cien positivos, la mera sustitución de trabajadores humanos en los puestos de trabajo en que la robótica puede hacerlo con eficacia trae apareada la generación de un alto índice de paro generado por la desaparición de dichos puestos. Los expertos en ese tipo de ingeniería prevén que hasta la cuarta parte de los empleos actuales desaparecerán con la implementación de la inteligencia artificial y la robótica.


Si a eso añadimos que buena parte del personal que ocupaba ese tipo de empleo no será readaptable a nuevos puestos, bien por edad en la que ya han perdido el hábito del aprendizaje y/o por el bajo nivel de formación que su trabajo requería, difícilmente serán candidatos a desempeñar otros puestos y menos aún cuando exijan una cualificación técnica alta como la que requerirán la mayoría de los nuevos empleos que serán necesarios en el campo de la ingeniería de la inteligencia artificial, que serán pocos y de alta cualificación, por lo que nunca podrán absorber a los trabajadores que desplazan.


Otro problema, y no es de índole menor, es la falta de cambios en el modelo de sociedad y del mundo laboral para realizar una adaptación compensada y justa que equilibre los desajustes que se producen derivados de la que también se ha denominado como cuarta revolución industrial. La digitalización y la robótica no pueden contemplarse únicamente como ventajas para mayor rentabilidad de una empresa porque sustituye a un buen número de trabajadores y desaparece la obligación de pagar cotizaciones a la Seguridad Social y también el IRPF. Es cierto que al principio se planteaba que dichas tecnologías pagasen un impuesto en función de los puestos de trabajo que sustituían, pero eso parece haber quedado en el olvido y, mientras las empresas se llenan los bolsillos sin pagar contribución alguna a cambio, de los trabajadores despedidos y de quién va a ocuparse de su futuro nadie parece acordarse.


Por otra parte, tampoco hay que olvidar la situación de calentamiento global y los efectos de la crisis climática desbocada que estamos padeciendo y de cómo incide negativamente el alto consumo de energía que estas tecnologías necesitan, o la cantidad de elementos escasos en el planeta que requieren. Y por supuesto, lo que supone su alto consumo de un bien escaso e imprescindible para la vida como es el agua.


Pero como decía al principio todo tiene sus pros y sus contras y, sin negar las grandes ventajas de los avances científicos y tecnológicos, no debemos olvidar los riesgos del abuso, del mal uso, o del uso perverso y sus nefastos resultados para la humanidad.


Es en este último punto en el que quiero detenerme hoy, porque es un ejemplo muy ilustrativo de cómo una tecnología puede ser beneficiosa, caso de la robótica en el accidente de Fukushima, o perversa cuando se usa en el ejemplo que expondré a continuación. Y aquí ya vamos a entrar de lleno en la utilización de la inteligencia artificial como arma de guerra y de cómo Israel la está utilizando para planificar asesinatos selectivos en Gaza sin tener en cuenta las reglas internacionales en cuanto a salvaguardar a la población civil.


Israel está utilizando un programa de inteligencia artificial denominado “Lavender” para elaborar una lista de sujetos que serán víctimas de asesinatos selectivos en Gaza. Según publicaciones de los medios israelíes +972 Magazine y Local Call, el ejército israelí utilizó este programa “para armar una “lista de asesinatos selectivos” en Gaza que llegó a incluir hasta 37.000 hombres palestinos en un proceso que tuvo poca supervisión humana”. Y lo más terrible es que también se complementó con otro sistema de inteligencia artificial conocido como “¿Dónde está papá?” que rastreaba a los incluidos en la “lista de asesinatos selectivos” mencionada para asesinarlos por la noche cuando estuvieran en su casa con la familia como primera opción.


También utilizaron el sistema denominado “Evangelio” para destruir la infraestructura civil de Gaza, es decir, universidades, bancos, complejos de apartamentos, con el fin de crear presión de la población civil sobre Hamás.


El resultado de esta combinación de sistemas de inteligencia artificial, tal como señala en una entrevista realizada por Amy Goodman al investigador Yuval Abraham, periodista israelí que se entrevistó con miembros del Ejército israelí “que estaban conmocionados por las atrocidades cometidas”, el programa “Lavander” contenía errores de identificación de objetivos, (calculaban las fuentes militares que un 10%), porque bastaba que coincidiese el nombre, tener un mismo apodo, o perfiles de comunicación similares. Por su parte, el sistema “¿Dónde está papá?” amplificaba las muertes de civiles al destruir la vivienda, o incluso el edificio entero al bombardear cuando el individuo señalado se hallaba dentro.


El investigador Yuval Abraham señala que, según sus fuentes entrevistadas, para los miembros de bajo rango, (presuntos milicianos o simpatizantes señalados por la máquina), el grado de daño colateral permitido estaba hasta 20 civiles, mientras que para un comandante de Hamás el rango aprobado por el ejército se elevaba a la matanza colateral de 300 civiles, aunque según otra fuente durante las primeras semanas nunca existió el principio de proporcionalidad.


Como afirma Yuval Abraham estos sistemas militares de inteligencia artificial son un peligro para la humanidad, porque “la guerra basada en la inteligencia artificial permite que las personas eviten rendir cuentas por sus actos”.

Opmerkingen


bottom of page