¿Es peligrosa la Inteligencia Artificial?

No pasa día sin que alguien o algo me dé un susto de esos de andar por casa, preocupado regando las macetas. No hay suficiente con el cambio climático, el agotamiento de acuíferos, el fin del petróleo, la crisis financiera… Estos días están liados con otra paranoia: la de la Inteligencia Artificial (IA) y sus peligros.

En esto yo llevo una inmensa ventaja, porque he sido de joven un voraz lector de novelas de ciencia ficción, en donde los robots hacían de las suyas. Al final, ganamos. Sin necesidad de irnos a los años veinte cuando se especulaba con la posibilidad de máquinas inteligentes capaces de trabajar, o de matarnos a tiros, el cine nos mostró a Skynet, una IA militar que adquiere conciencia el 29 de agosto de 1997, a las 2:14 de la madrugada (hora de los EE.UU., cómo no), y en ese preciso instante desencadena un ataque nuclear para destruir a la especie humana y crear un mundo dominado por las máquinas. Los supervivientes entran en guerra contra los robots y esa historia da para unas cuantas películas.

Total, que hay preocupación. Filósofos, millonarios, terapeutas ocupacionales y otros dignos representantes de la Raza Humana, han firmado un documento pidiendo una moratoria en el desarrollo de las IA, actualmente en manos de empresas privadas. Otras voces de científicos se alzan pidiendo que se desarrollen IA previendo siempre los riesgos que conllevan. El miedo que tienen estos personajes, es que en algún momento haya una máquina que defina sus propios objetivos… Como ¡Matarnos a Todos! o ¡Desecar el Mediterráneo! y crear una civilización robótica.

No hay problema. Isaac Asimov nos legó sus leyes de la robótica para crear robots responsables y bien programados, y estas leyes son: un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños; un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley; un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

En realidad esas leyes las deberían cumplir todos los aspirantes a Pez Gordo. Me refiero a políticos, militares, curas… Pero yendo a las propuestas de moratorias y de evaluación de riesgos, desde ya os digo que ni va a haber moratoria, ni se van a valorar los riesgos.

Vivimos en una sociedad capitalista, y por consiguiente cualquier moratoria aceptada por una empresa con ánimo de lucro, va a provocar que se vea sobrepasada por la competencia.  Google no puede quedar detrás de Microsoft. Y los Estados van a seguir investigando para crear sistemas militares computerizados que puedan tomar decisiones para hacer fosfatina al enemigo. Eso no hay modo de evitarlo, porque si China no crea sus IA, EE.UU. seguro que las desarrolla. Por lo tanto, China no se va a quedar atrás.

Así que ya está: crisis climática, financiera, ecológica, política, energética, económica… O la soluciona una IA que tome conciencia y decida eliminar a los Peces Gordos (sugiero un envenenamiento selectivo en un gran banquete)…, o el menor de nuestros dilemas será una máquina que, para variar, piense y actúe.

Acratosaurio rex

Un pensamiento sobre “¿Es peligrosa la Inteligencia Artificial?”

  1. Sin duda, algo de eso hay. Pero ciertas disposiciones legales y proppuests políticas deben indicar cuáles son los limites que no se deben sobrepasar.

Deja un comentario