Carrera armamentista de inteligencia artificial

Una carrera armamentista de inteligencia artificial es una competencia entre dos o más estados para dotar a sus fuerzas militares de la mejor "inteligencia artificial" (IA). Desde mediados de la década de 2010, muchos analistas han argumentado que ya ha comenzado una carrera armamentista mundial de este tipo para mejorar la inteligencia artificial.

Posturas hacia la inteligencia militar artificial

editar

El general ruso Viktor Bondarev , comandante en jefe de la fuerza aérea rusa, ha declarado que ya en febrero de 2017, Rusia ha estado trabajando en misiles guiados por Inteligencia Artificial que pueden decidir cambiar de objetivo a mitad de vuelo.[1]​ Los informes de los medios de comunicación rusos patrocinados por el Estado sobre los posibles usos militares de la inteligencia artificial aumentaron a mediados de 2017.[2]​ En mayo de 2017, el director general del grupo ruso Kronstadt, contratista de defensa, afirmó que "ya existen sistemas operativos de IA completamente autónomos que proporcionan los medios para los grupos de vehículos aéreos no tripulados, cuando cumplen las misiones de forma autónoma, comparten tareas entre ellos e interactúan", y que es inevitable que "enjambres de aviones teledirigidos" sobrevuelen algún día las zonas de combate.[3]​ Rusia ha estado probando varios sistemas de combate autónomos y semiautónomos, como el módulo de combate "red neuronal" de Kalashnikov, con una ametralladora, una cámara y una IA que, según sus creadores, puede emitir sus propios juicios sobre los objetivos sin intervención humana.[4]​ En septiembre de 2017, durante un discurso pronunciado en el Día Nacional del Conocimiento ante más de un millón de estudiantes en 16.000 escuelas rusas, el presidente ruso Vladímir Putin declaró: "La inteligencia artificial es el futuro, no sólo para Rusia sino para toda la humanidad....". Quienquiera que se convierta en el líder en esta esfera se convertirá en el gobernante del mundo".[5][6]

El gobierno ruso ha rechazado enérgicamente cualquier prohibición de los sistemas de armas autónomas letales, sugiriendo que tal prohibición podría ser ignorada.[7][8]

Según Elsa Kania, del Center for a New American Security, "China ya no se encuentra en una posición de inferioridad tecnológica, sino que más bien se ve a sí misma a punto de alcanzar y superar a Estados Unidos en inteligencia artificial". Como tal, el ejército chino pretende lograr una ventaja mediante el cambio de paradigmas en la guerra con la innovación militar, aprovechando así las "alturas dominantes"... de la futura competencia militar".[9]​ Los estrechos vínculos entre Silicon Valley y China, y la naturaleza abierta de la comunidad de investigación estadounidense, han hecho que la tecnología de IA más avanzada de Occidente esté fácilmente disponible para China; además, la industria china tiene numerosos logros propios en el campo de la IA, como el hecho de que Baidu aprobara en 2015 un notable punto de referencia en cuanto a capacidad de reconocimiento de voz en idioma chino.[10]​ A partir de 2017, la hoja de ruta de Pekín pretende crear una industria de IA de 150 billones de dólares para 2030.[11]​ Antes de 2013, la adquisición de defensa china se limitaba principalmente a unos pocos conglomerados; sin embargo, a partir de 2017, China a menudo obtiene tecnología emergente sensible, como aviones no tripulados e inteligencia artificial, de empresas privadas de nueva creación.[12]​ Un estado chino se ha comprometido a invertir 5 billones de dólares en inteligencia artificial. Pekín se ha ofrecido a invertir 2 billones de dólares para un parque de desarrollo de inteligencia artificial .[13]​ El Japan Times informó en 2018 que la inversión privada anual china en AI es inferior a 7 billones de dólares anuales. Las nuevas empresas de IA en China recibieron casi la mitad de la inversión global total en las nuevas empresas de IA en 2017; los chinos solicitaron casi cinco veces más patentes de IA que los estadounidenses.[14]

China publicó un documento de posición en 2016 cuestionando la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar la cuestión.[15]

Estados Unidos

editar
 
El Cazador Marino, buque de guerra autónomo de EE. UU. 2016

En 2014, el exsecretario de Defensa Chuck Hagel planteó la "Tercera Estrategia de Compensación", según la cual los rápidos avances en inteligencia artificial definirán la próxima generación de guerra.[16]​ Según la firma de análisis y ciencia de datos Govini, el Departamento de Defensa de los EE. UU. aumentó la inversión en inteligencia artificial, grandes datos y computación en nube de 5.600 millones de dólares en 2011 a 7.400 millones de dólares en 2016.[17]​ Sin embargo, el presupuesto civil de la NSF para AI no experimentó ningún aumento en 2017.[11]

Estados Unidos tiene muchos programas militares de combate de inteligencia artificial, como el buque de guerra autónomo Sea Hunter, que está diseñado para operar durante largos períodos en el mar sin un solo miembro de la tripulación, e incluso para guiarse a sí mismo dentro y fuera del puerto.[4]​ A partir de 2017, una directiva temporal del Departamento de Defensa de los Estados Unidos exige que un operador humano se mantenga al tanto cuando se trate de quitar vidas humanas mediante sistemas de armas autónomos.[18]​ El Japan Times informó en 2018 que la inversión privada de los Estados Unidos es de alrededor de 70.000 millones de dólares al año.[14]

Reino Unido

editar

En 2015, el gobierno del Reino Unido se opuso a la prohibición de las armas autónomas letales, afirmando que "el derecho internacional humanitario ya proporciona suficiente regulación para esta área", pero que todas las armas empleadas por las fuerzas armadas del Reino Unido estarían "bajo supervisión y control humano".[19]

Israel

editar

El dron Harpy anti-radar arpía israelí "dispara y olvida" está diseñado para ser lanzado por tropas terrestres, y vuela autónomamente sobre un área para encontrar y destruir un radar que se ajuste a criterios predeterminados.[20]

Corea del Sur

editar

La ametralladora surcoreana Super aEgis II, presentada en 2010, se utiliza tanto en Corea del Sur como en Oriente Medio. Puede identificar, rastrear y destruir un objetivo en movimiento a una distancia de 4 km. Mientras que la tecnología puede teóricamente operar sin intervención humana, en la práctica se instalan medidas de seguridad para requerir la entrada manual. Un fabricante surcoreano afirma: "Nuestras armas no duermen, como deben hacerlo los humanos.Pueden ver en la oscuridad, como los humanos no pueden. Por lo tanto, nuestra tecnología cubre las lagunas en la capacidad humana", y quieren "llegar a un punto en el que nuestro software pueda discernir si un objetivo es un amigo, un enemigo, un civil o un militar".[21]

Tendencias

editar

Según Siemens, el gasto militar mundial en robótica fue de 5 billones de dólares en 2010 y de 7.5 billones de dólares en 2015.[22][23]

China se convirtió en uno de los principales actores en la investigación de la inteligencia artificial en la década de 2010. Según el Financial Times, en 2016, China publicó por primera vez más artículos de IA que toda la Unión Europea. Cuando se restringió al número de artículos de IA en el 5% de los más citados, China superó a Estados Unidos en 2016, pero se quedó atrás de la Unión Europea[11]​.El 23% de los investigadores que se presentaron en la conferencia de 2017 de la Asociación Americana para el Avance de la Inteligencia Artificial (AAIA) eran chinos.[24]Eric Schmidt, el expresidente de Alfabeto, ha pronosticado que China será el país líder en IA para 2025.[25]

AAAI Presentadores:[24]
País En 2012 En 2017
EE.UU. 41% 34%
China 10% 23%
Reino Unido 5% 5%

Propuestas de regulación internacional

editar

Ya en 2007, estudiosos como el profesor de IA Noel Sharkey advirtieron de "una carrera armamentista emergente entre las naciones de alta tecnología para desarrollar submarinos autónomos, aviones de combate, acorazados y tanques que puedan encontrar sus propios objetivos y aplicar la fuerza violenta sin la participación de decisiones humanas significativas".[26][27]​ Ya en 2014, especialistas de IA como Steve Omohundro han advertido de que "ya se está produciendo una carrera armamentista autónoma".[28]​ Miles Brundage, de la Universidad de Oxford, ha argumentado que una carrera armamentista de inteligencia artificial podría mitigarse de alguna manera a través de la diplomacia: "Vimos en las diversas carreras de armamento históricas que la colaboración y el diálogo pueden dar sus frutos".[29]​ Más de un centenar de expertos firmaron una carta abierta en 2017 en la que pedían a la ONU que abordara la cuestión de las armas autónomas letales;[19][30]​ Sin embargo, en una sesión de noviembre de 2017 de la Convención de la ONU sobre Ciertas Armas Convencionales (CCW), los diplomáticos no pudieron ponerse de acuerdo ni siquiera sobre cómo definir tales armas.[31]​ El embajador de la India y presidente de la CCW declaró que el acuerdo sobre las normas seguía siendo una perspectiva lejana. Hasta 2017, veintidós países han pedido una prohibición total de las armas autónomas letales.[32]

Muchos expertos creen que los intentos de prohibir completamente los robots asesinos probablemente fracasarán.[33]​ Un informe de 2017 del Centro Belfer de Harvard predice que la IA tiene el potencial de ser tan transformadora como las armas nucleares .[29][34][35]​ El informe sostiene además que "impedir la expansión del uso militar de la inteligencia artificial es probablemente imposible" y que "debe perseguirse el objetivo más modesto de una gestión segura y eficaz de la tecnología", como la prohibición de vincular el dead man's swtich de inteligencia artificial a un arsenal nuclear.[35]​ Parte de la impracticabilidad es que la detección de las violaciones de los tratados sería extremadamente difícil.[36][37]

Otras reacciones a las armas autónomas

editar

Decenas de miles de ciudadanos, entre ellos el físico Stephen Hawking, Tesla , el magnate Elon Musk y Steve Wozniak de Apple, han firmado una carta abierta en 2015 en la que piden la prohibición de los sistemas letales de armas automatizadas.[31]

El profesor Noel Sharkey de la Universidad de Sheffield ha advertido que las armas autónomas caerán inevitablemente en manos de grupos terroristas como el Estado islámico.[38]

Disociación

editar

Muchas compañías de tecnología occidentales temen estar asociadas demasiado estrechamente con las fuerzas armadas de Estados Unidos, por temor a perder el acceso al mercado chino.[10]​ Además, algunos investigadores, como Demis Hassabis de DeepMind, se oponen ideológicamente a contribuir al trabajo militar.[39]

Por ejemplo, el Proyecto Maven es un proyecto del Pentágono que involucra el uso de máquinas de aprendizaje y talento de ingeniería para distinguir personas y objetos en videos de aviones no tripulados,[40]​ establecido en un memorando por el Subsecretario de Defensa de los Estados Unidos el 26 de abril de 2017.[41]​ También conocido como el Equipo de Guerra Algorítmica de Funcionalidad Cruzada,[42]​ es, según el Teniente General de la Fuerza Aérea de los Estados Unidos Jack Shanahan en noviembre de 2017, un proyecto "diseñado para ser ese proyecto piloto, ese explorador, esa chispa que enciende el frente de llamas de la inteligencia artificial en el resto del Departamento[de Defensa]".[43]​ Su jefe, el coronel del Cuerpo de Marines de los EE.UU Col Drew Cukor, dijo: "La gente y las computadoras trabajarán simbióticamente para aumentar la capacidad de los sistemas de armas para detectar objetos."[44]​ En la segunda Cumbre Tecnológica de Defense One en julio de 2017, Cukor también dijo que la inversión en un "proceso deliberado de flujo de trabajo" fue financiada por el Departamento[de Defensa] a través de sus "autoridades de adquisición rápida" durante aproximadamente "los próximos 36 meses".[45]

En junio de 2018, fuentes de la compañía en Google dijeron que la alta ejecutiva Diane Greene le dijo al personal que la compañía no daría seguimiento a Project Maven después de que el contrato actual expire en marzo de 2019.[40]

Véase también

editar

Referencias

editar
  1. «Newsweek . 20 de julio de 2017 . Consultado el 24 de diciembre de 2017 .». 
  2. «Why Elon Musk is right about the threat posed by Russian artificial intelligence». The Independent (en inglés). 6 de septiembre de 2017. Consultado el 4 de febrero de 2019. 
  3. PM, Jason Le Miere On 5/15/17 at 1:02 (15 de mayo de 2017). «Russia is developing autonomous "swarms of drones" it calls an inevitable part of future warfare». Newsweek (en inglés). Consultado el 4 de febrero de 2019. 
  4. a b Smith, Mark (25 de agosto de 2017). «Is 'killer robot' warfare closer than we think?» (en inglés británico). Consultado el 4 de febrero de 2019. 
  5. Simonite, Tom (8 de septiembre de 2017). «Artificial Intelligence Fuels New Global Arms Race». Wired. ISSN 1059-1028. Consultado el 4 de febrero de 2019. 
  6. Clifford, Catherine (29 de septiembre de 2017). «Hootsuite CEO: Next version of arms race will be a race to build AI». www.cnbc.com. Consultado el 4 de febrero de 2019. 
  7. staff, E&T editorial (1 de diciembre de 2017). «Russia rejects potential UN ‘killer robots’ ban, official statement says». eandt.theiet.org (en inglés estadounidense). Consultado el 4 de febrero de 2019. 
  8. «(PDF). Retrieved 12 January 2018.». 
  9. PM, Tom O'Connor On 11/29/17 at 9:17 (29 de noviembre de 2017). «U.S. is losing to Russia and China in war for artificial intelligence, report says». Newsweek (en inglés). Consultado el 4 de febrero de 2019. 
  10. a b Markoff, John (3 de febrero de 2017). «China’s Intelligent Weaponry Gets Smarter». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 4 de febrero de 2019. 
  11. a b c «Subscribe to read». Financial Times (en inglés británico). Consultado el 4 de febrero de 2019. 
  12. «Subscribe to read». Financial Times (en inglés británico). Consultado el 4 de febrero de 2019. 
  13. Metz, Cade (12 de febrero de 2018). «As China Marches Forward on A.I., the White House Is Silent». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 4 de febrero de 2019. 
  14. a b «The artificial intelligence race heats up». The Japan Times (en inglés estadounidense). 1 de marzo de 2018. Consultado el 4 de febrero de 2019. 
  15. Emery, David. «Robots with Guns: The Rise of Autonomous Weapons Systems». Snopes.com (en inglés estadounidense). Consultado el 4 de febrero de 2019. 
  16. CNN, Zachary Cohen. «US risks losing AI arms race to China and Russia». CNN. Consultado el 4 de febrero de 2019. 
  17. «- The Washington Post». Washington Post (en inglés). Consultado el 4 de febrero de 2019. 
  18. CNN, Ryan Browne. «US general warns of out-of-control killer robots». CNN. Consultado el 4 de febrero de 2019. 
  19. a b Gibbs, Samuel (20 de agosto de 2017). «Elon Musk leads 116 experts calling for outright ban of killer robots». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 4 de febrero de 2019. 
  20. Welle (www.dw.com), Deutsche. «'Killer robots': autonomous weapons pose moral dilemma | DW | 14.11.2017». DW.COM (en inglés británico). Consultado el 4 de febrero de 2019. 
  21. Parkin, Simon. «Killer robots: The soldiers that never sleep». www.bbc.com (en inglés). Consultado el 4 de febrero de 2019. 
  22. «Getting to grips with military robotics». The Economist. 25 de enero de 2018. ISSN 0013-0613. Consultado el 4 de febrero de 2019. 
  23. Siemens. «Autonomous Systems: Infographic». www.siemens.com (en inglés). Archivado desde el original el 7 de febrero de 2018. Consultado el 4 de febrero de 2019. 
  24. a b «China seeks dominance of global AI industry». 15 de octubre de 2017. Consultado el 24 de diciembre de 2017. 
  25. «The battle for digital supremacy» (en inglés). 2018. Consultado el 19 de marzo de 2018. 
  26. «Ban on killer robots urgently needed, say scientists». 13 de noviembre de 2017. Consultado el 24 de diciembre de 2017. 
  27. Sharkey, Noel (17 de agosto de 2007). «Noel Sharkey: Robot wars are a reality». Consultado el 11 de enero de 2018. 
  28. Markoff, John (11 de noviembre de 2014). «Fearing Bombs That Can Pick Whom to Kill». Consultado el 11 de enero de 2018. 
  29. a b «AI Could Revolutionize War as Much as Nukes». Consultado el 24 de diciembre de 2017. 
  30. «An Open Letter to the United Nations Convention on Certain Conventional Weapons». Future of Life Institute (en inglés estadounidense). Consultado el 4 de febrero de 2019. 
  31. a b Boyd, Alan. «Rise of the killer machines». www.atimes.com (en inglés estadounidense). Archivado desde el original el 23 de diciembre de 2017. Consultado el 4 de febrero de 2019. 
  32. Nations, Agence France-Presse at the United (17 de noviembre de 2017). «'Robots are not taking over,' says head of UN body on autonomous weapons». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 4 de febrero de 2019. 
  33. «Sorry, Banning 'Killer Robots' Just Isn't Practical». 22 de agosto de 2017. Consultado el 14 de enero de 2018. 
  34. McFarland, Matt (14 de noviembre de 2017). «'Slaughterbots' film shows potential horrors of killer drones». Consultado el 14 de enero de 2018. 
  35. a b Allen, Greg, y Taniel Chan. "Inteligencia artificial y Seguridad Nacional." Informe. Escuela de Kennedy del Harvard, Universidad de Harvard. Boston, MA (2017).
  36. Antebi, Liran. "Quién Parará los Robots?." Asuntos militares y Estratégicos 5.2 (2013).
  37. Shulman, C., & Armstrong, S. (2009, julio). Control de armas y explosiones de inteligencia. En 7.ª Conferencia europea encima Computando y Filosofía (ECAP), Bellaterra, España, julio (pp. 2-4).
  38. Wheeler, Brian (30 de noviembre de 2017). «Terrorists 'certain' to get killer robots» (en inglés británico). Consultado el 4 de febrero de 2019. 
  39. Metz, Cade (15 de marzo de 2018). «Pentagon Wants Silicon Valley’s Help on A.I.». Consultado el 19 de marzo de 2018. 
  40. a b «Google 'to end' Pentagon Artificial Intelligence project». 2 de junio de 2018. Consultado el 3 de junio de 2018. 
  41. Robert O. Work (26 de abril de 2017). «Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)». Consultado el 3 de junio de 2018. 
  42. «Google employees resign in protest against Air Force’s Project Maven». 14 de mayo de 2018. Consultado el 3 de junio de 2018. 
  43. Allen, Gregory C. (21 de diciembre de 2017). «Project Maven brings AI to the fight against ISIS». Bulletin of the Atomic Scientists. Archivado desde el original el 4 de junio de 2018. Consultado el 3 de junio de 2018. 
  44. Ethan Baron (3 de junio de 2018). «Google Backs Off from Pentagon Project After Uproar: Report». Military.com. Consultado el 3 de junio de 2018. 
  45. Cheryl Pellerin (21 de julio de 2017). «Project Maven to Deploy Computer Algorithms to War Zone by Year’s End». DoD News, Defense Media Activity. Consultado el 3 de junio de 2018.