jueves, 6 de agosto de 2015

Inteligencia artificial, otra contradicción y peligro del capitalismo salvaje



Inteligencia artificial, otra contradicción y peligro del capitalismo salvaje
por Adán Salgado Andrade


Una de las zagas cinematográficas que mejor muestra el peligro de lo que significaría un robot militar que se saliera de control, es la de los filmes de James Cameron, Terminator I y II, en los cuales un sistema de defensa “inteligente”, Skynet, encargado de vigilar el programa nuclear de Estados Unidos (EU), se sale de control, comienza a “pensar” por sí mismo y provoca un conflicto termonuclear que casi acaba con la humanidad en 1997. Décadas más tarde, las máquinas han evolucionado hasta apoderarse de todo el planeta y lo que queda de la humanidad son algunos guerrilleros que luchan por combatirlas.
El escenario planteado, tan de ciencia-ficción, cada vez se vuelve más realista y potencialmente peligroso, en vista de los “progresos” que ha ido teniendo la Inteligencia Artificial (IA), la que, por desgracia, está teniendo aplicaciones no sólo en la vida diaria, sino también en el diseño y fabricación de armamento. Una cosa es que, por ejemplo, una supercomputadora de IBM, la Deep Blue, haya derrotado al campeón mundial de ajedrez, Gary Kasaparov después de seis juegos y otra muy diferente es que se dejaran las decisiones militares a cerebros artificiales y robots militares inteligentes. Es lo que tiene preocupados a muchos, tanto científicos, así como empresarios.
Expertos en IA como Demis Hassabis, fundador de la empresa DeepMind, recientemente adquirida por Google,  Shane Legg, experto en IA, también de Google, Ryan Gariepy, de la empresa robótica canadiense Clearpath, Elon Musk, fundador de Tesla Motors, que fabrica eficientes autos eléctricos, Jaan Tallin, fundador de Skype, el astrofísico Stephen Hawking, el profesor de Oxford, Nick Bostrom, eticista sobre IA, Stuart Russell, pionero en ese campo y muchas otras personalidades empresariales, académicas y científicas, se han reunido frecuentemente en varios países y dictado conferencias sobre los peligros que pueden derivarse de la IA, si ésta disciplina científica no se hace de acuerdo a serias consideraciones éticas y morales, sobre todo, que se tengan en cuenta valores humanos en su creación.
Y es que todos esos expertos y personalidades plantean el problema de qué sucedería si las máquinas dotadas de inteligencia propia comenzaran a desviarse de los objetivos originales para los cuales hubieran sido hechas y programadas, y generaran sus propios comandos, que descartaran el objetivo original, sobre todo cuando se tratara de la aplicación de la IA al diseño de armas, que, por desgracia, es el primer cometido que se tiene cuando se da un nuevo avance, qué tan eficientes armas se lograrían aplicándolo allí.
Y no es un objetivo secundario, no. Por desgracia, alrededor del 80% de los “avances” científicos tienen como primer meta la fabricación y diseño de armas. Las armas siempre han sido un muy lucrativo negocio, por eso aprovechan cualquier nuevo avance (ver: http://adansalgadoandrade.blogspot.mx/2011/12/ferias-de-armas-exhibicion-de-fuerza-de.html).
Quizá uno de los proyectos militares que más mentes científicas conjuntó, además de millones de dólares en fondos para que se lograra el destructivo objetivo cuanto antes, fue el “Proyecto Manhattan”, la investigación que por poco más de tres años engendró a la temible bomba nuclear, que fue usada absurdamente en contra de Japón en 1945, país que ya estaba prácticamente derrotado, para “finalizar” la segunda guerra mundial. Pocos científicos y personalidades objetaron ese infame proyecto y que, finalmente, la letal creación se empleara (ver: http://adansalgadoandrade.blogspot.mx/2014/12/dia-de-la-trinidad-el-nacimiento-de-la.html).
En una reciente conferencia en Londres, volvieron a reunirse personalidades como Elon Musk o Stephen Hawking para advertir que varias corporaciones militares ya aplican la IA en el diseño y fabricación de armas, que aunque no llegan aun a los niveles de sofisticación de Skynet o los Terminators, por fortuna, si representan un serio problema (ver: http://www.jornada.unam.mx/2015/07/29/ciencias/a02n1cie).
Por ejemplo, DARPA, la división del Pentágono que existe exclusivamente para alentar la investigación “científica” para el diseño de armas, ha logrado, mediante concursos, que invenciones como los automóviles autónomos – que actualmente perfecciona Google –, funcionen adecuadamente y su siguiente objetivo es que sirvan, por ejemplo, como vehículos de combate para ir a las guerras o “vigilar” fronteras (imaginen a cientos de esos engendros vigilando la frontera de México con EU, para evitar que los “peligrosos” ilegales entraran allí, y, sin criterio alguno, simplemente los mataran, con tal de cumplir eficientemente la tarea para la que fueron programados). De hecho, los drones, esos pequeños aviones militares que pueden volar grandes distancias, aunque no son autónomos aun, pues son controlados remotamente por “soldados”, son un buen ejemplo de los alcances que está teniendo el desarrollo de armamento “inteligente”. Y ya hay varias empresas de varios países que están tratando de hacer que tales drones sean totalmente autónomos. Y también comienzan a diseñarse prototipos de robots militares, como el Atlas, fabricado por Boston Dynamics, que emplean principios de la IA (ver: https://www.youtube.com/watch?v=zkBnFPBV3f0).
O sea, que el temor de muchos por la aplicación de la IA en la industria bélica está bien fundado
Sin embargo, no sólo es en la fabricación de las armas en donde la IA presenta reales peligros potenciales.
Desde hace años, existen robots industriales los cuales, en efecto, son más eficientes, veloces y precisos en la fabricación de automóviles, por ejemplo (aunque a veces se equivocan, como el que recientemente mató a un ingeniero que lo estaba instalando en una fábrica de autos de VW. El robot lo confundió con una pieza, lo apretó entre sus pinzas y lo mató. Ver: http://www.jornada.unam.mx/2015/07/02/economia/022n4eco). 
Claro que desde el punto de vista de la “racionalidad” capitalista, eso es magnífico, pues se han incrementado exponencialmente el número de productos fabricados, es decir, que la sobreproducción, fabricar más de lo que realmente la sociedad consume, ha aumentado con creces, y con ello se ha agudizado más una de las principales contradicciones del capitalismo, pues la capacidad social de consumo no va a la par con la sobreproducción y las necesidades de obtención de ganancia de aquél.
Y no sólo eso, sino que la introducción de sistemas robóticos automatizados crea menos empleos, pues se fabrica más, gracias a las máquinas, con menos trabajadores (ver: http://adansalgadoandrade.blogspot.mx/2011/10/desempleo-en-eu-agudizada-tendencia-del.html).
Esta situación crea dos problemas. Por un lado, al haber más desempleo, habrá menos consumo, el que, de por sí, nunca ha estado a la par de todo lo que se hace, debido a la mencionada sobreproducción. Por otro lado, las tareas para el obrero se van simplificando, pues el llamado know-how se va incorporando a las máquinas, así que no se requiere que sean grandes expertos, y se les puede entrenar fácilmente, con lo que sus salarios serán cada vez más bajos. Y así, con salarios bajos, se agudiza todavía más el problema de la falta de consumo.
Imaginemos, entonces, que se emplearan ya sólo robots en las fábricas, en lugar de humanos. Cabría preguntarse, ¿quién compraría toda la sobreproducción que tan eficientemente hicieran tales robots? Los robots, por supuesto que no, porque sólo serían máquinas, ni modo que compraran. Pero, además, habría otra nueva contradicción, pues al no haber ya mano de obra humana, que es la que genera realmente la ganancia, por la plusvalía – el trabajo no pagado – generada, entonces, la “ganancia” simplemente tendría que agregarse al final, ya que no habría plusvalor, propiamente dicho. No sería ya capitalismo, en sentido estricto.
Y tampoco se ha cumplido que al desplazar gente de ciertos sectores industriales por la automatización o robotización, se crean trabajos en otros. No es así, pues, por ejemplo, en EU, la creación de actividades alternativas a los empleos que se han perdido debido a la automatización o los que han emigrado a China, no ha ido a la par. Actualmente, son tiendas como Walmart las que más empleos crean en EU, pero no otras industrias. Se ha terciarizado el empleo allá, como en muchos otros países (ver Vaclav Smill, desindustrialización en EU)
Quizá ese tipo de consideraciones son a las que se refieren algunos expertos, como Murray Shanahan, profesor of robótica cognitiva del Imperial College de Londres. Murray señala que, en efecto, puede ser que la IA genere una súper mente diabólica que trate de destruirnos, pero actualmente son problemas más cotidianos los que enfrentaremos. Señala que  “Es difícil predecir qué va a suceder exactamente, pero estamos muy seguros de que sí va a afectar a las sociedad de un modo u otro”.
Sí, pues imaginemos que no sólo en las fábricas se comenzaran a generalizar los robots, sino en otras tareas. Por ejemplo, que los autos autónomos de Google comenzaran a trabajar como taxis o que robots sirvieran en restaurantes, como ya sucede en algunos de Japón o China. Y así, que se fueran sustituyendo las capacidades humanas por robots, entonces, el consiguiente desempleo, grave de por sí, sería mucho, pero mucho peor. Pero, insisto, también la contradicción capitalista de la sobreproducción contra el bajo consumo se agravaría, un vicioso círculo.
Eso, en el plano laboral, pero otros expertos están preocupados sobre el problema de que una IA sin freno, digamos, podría llevar a generar, si no un Frankenstein, un problema de valores. Quien más claramente lo señala es Stuart Russell, pionero en la investigación de IA.
De hecho, el científico británico-estadounidense redactó recientemente una carta en la que declaraba que “Recomendamos mejor investigación con el objetivo de asegurarnos que nuestros dispositivos basados en la IA sean más eficientes, pero benéficos. Ellos deben de hacer exactamente lo que queremos de ellos que hagan”. Dicha carta fue firmada ya por cientos de científicos y empresarios.
Señala Russell que recientemente, gracias a lo que se llama deep learning, que viene siendo una serie de algoritmos inspirados en la función neuronal, se han mejorado, por mucho, los sistemas de reconocimiento facial que emplea Facebook, los celulares inteligentes, la traducción simultánea de Skype o los vehículos autónomos de Google, muy avanzados ya. Gracias a ese procedimiento, un algoritmo “inteligente” denominado DQN fue capaz de jugar, por sí sólo, una consola de Atari. A ese algoritmo, únicamente se le indicó el puntaje que debía de lograr cada vez que jugara, lo cual hizo extraordinariamente bien, incrementando mucho tal puntaje por cada juego (ver: https://www.youtube.com/watch?v=EfGD2qveGdQ).
Y es algo que preocupa a Russell. Pues señala que “si un robot sólo tiene como meta lograr aquello para lo que se programe, no vacilará en hacer cosas incluso absurdas. Supongamos que un robot doméstico debe de hacer la comida y, al ver que ya no hay alimentos en el refrigerador, toma al gato de la familia y lo mete al horno de microondas. Si eso sucediera, nadie querría tener una cosa así”.
Quizá parezca extremo su ejemplo, pero no lo es, pues como menciono arriba, un robot militar no distinguiría entre un “amigo” o un enemigo, si solo está programado para disparar contra cualquier objetivo que se mueva o tome un arma.
Viene aquí, muy ad hoc, la escena de la reciente cinta titulada “El francotirador”, basada en al historia verídica de un soldado estadounidense que por su excelente puntería fue asignado a trabajar como tirador experto en la invasión a Irak. En tal escena, se ve a un niño que está titubeando en usar o no un mortero dejado en el lugar por un atacante abatido segundos antes por el francotirador, quien desea que el niño no lo emplee, que no trate de disparar. Para su fortuna, al final, el niño lo deja y echa a correr, salvándose de morir de un certero disparo. Eso, un robot, ni dudaría. En el momento en que alguien, bueno, malo, amigo o enemigo, hombre, mujer, niño… tomara un arma, de inmediato le dispararía, pues simplemente haría aquello para lo que fue programado.
Algo que lograría, señala Russell, un comportamiento “ético” en una máquina, sería enseñarle a pensar “racionalmente”, pero es un concepto de por sí complicado en el ser humano, pues, explica el científico, “nunca planeamos al pie de la letra lo que hacemos. Sí, pensamos en que, por ejemplo, vamos a ir a un lugar en un avión y de allí, tomaremos un taxi y, luego, el hotel, pero de una manera muy general. Ya, los detalles, los vamos resolviendo en el momento”. Esa es la “racionalidad” bajo la que funciona el cerebro humano, muy compleja aun de convertirla en un algoritmo e introducirlo a una computadora, dice el científico.
También plantea Russell la necesidad de “fomentar valores” en las máquinas. “Sí, porque es lo que haría que el robot no metiera al gato en el horno de microondas para cocinarlo, dado que se daría cuenta de que está mal”. Por ello, piensa que se requeriría de una “industria de valores”, a la par del avance de la IA, para dotar a las máquinas pensantes de tales valores y que pudieran diferenciar entre lo bueno y lo malo, lo ético y lo inmoral.
Russell mismo se pregunta si se diera el caso de que un robot inteligente desarrollara también valores acordes con su inteligencia, que al ir desarrollándose, o sea, que fuera más inteligente, tales valores también crecieran. “Es algo que ignoro, quizá sí sería así o quizá tendríamos que mejorar los valores cada que mejorara o automejorara la inteligencia de una máquina”.
Por lo pronto, su principal consternación en cuanto a la creación de máquinas que piensen autónomamente, es que no sean dotadas de los mencionados valores. “Si esa máquina no sólo piensa por sí misma, sino que es capaz de mejorar su inteligencia, cómo garantizaremos que realmente la emplee para lo que fue diseñada y, no, para otros fines, incluso, el hacernos daño”, señala.
Y, claro, lo de menos sería que el robot doméstico metiera el gato al microondas para cocinarlo, sino, como se plantea en las mencionadas cintas de Terminator, que los robots, sobre todo los militares, decidan que su principal enemigo somos la humanidad y se apresten a aniquilarnos.
Sucede con la IA como en algún momento pasó con la ingeniería genética, que se establecieron ciertos estándares éticos, para evitar que algún inmoral “científico”, como, por desgracia, abundan, se diera a la tarea de crear un monstruo en el laboratorio o clonar a un ser humano.
“Sí, no podemos arriesgarnos a que el robot haga su propio programa, muy distinto del original, y se convierta en algo totalmente diferente para lo que fue diseñado. Es algo de lo que no sabemos todavía mucho”.
Como puede verse, es claro por qué científicos como Russell temen que se desate la investigación de las capacidades de la IA, sin su debido paralelo de consideraciones éticas.
Por desgracia para ellos, el capitalismo salvaje no tiene tales consideraciones y así como ha hecho en la industria, ir relegando al obrero, lo hará en otros campos, con tal de “abaratar costos y maximizar ganancias”, aunque con ello su principal contradicción se profundice.
Y si la industria militar, tan lucrativa, se beneficia aun más al diseñar armas con IA, lo hará, sin importar las consecuencias de su inmoral proceder.
Desafortunadamente, cada nuevo “avance” científico tiene, muchas veces, desastrosas consecuencias. Eso sucederá, seguramente, al crear máquinas que piensen por sí mismas y los filmes de Terminator no estarán ya tan alejados de la realidad.

Contacto: studillac@hotmail.com