Tecnología

Piden prohibir los ''robots asesinos''

Premios Nobel de la Paz y activistas están en contra de armas autónomas que podrían estar operativas en 20 o 30 años

NUEVA YORK, ESTADOS UNIDOS (19/NOV/2012).- Organizaciones de defensa de derechos  humanos y varios premios Nobel de la Paz instaron este lunes en Washington a  una "prohibición preventiva" mundial de los "robots asesinos", armas  sofisticadas y totalmente autónomas que reaccionan sin intervención humana y que podrían estar operativas en 20 o 30 años, antes "que la ciencia ficción se  convierta en realidad". 

La organización de derechos humanos Human Right Watch (HRW) e International  Human Rights Clinic y los premios Nobel de la Paz congregados en la Nobel  Women's Initiative, anunciaron ante la prensa en Washington una campaña para  instaurar "un tratado internacional que prohíba absolutamente el desarrollo,  producción y uso de armas completamente automáticas", denominados también  "robots asesinos". 

Robots similares a los que aparecen en las películas de Hollywood y que  podrían disparar sin permiso de los humanos son una posibilidad real y deben de  ser prohibidos antes de que los gobiernos comiencen a desplegarlos, afirmó HRW.

El informe "Losing Humanity" (Perdiendo Humanidad), coproducido por la HRW  junto a Harvard Law School's International Human Rights (escuela de derechos  humanos internacionales de Harvard), también hace sonar la alarma sobre la  ética de esta amenazadora tecnología.

El ejército estadounidense ya lidera el camino en uso de robots militares,  especialmente con los aviones no pilotados o drones utilizados para vigilancia  o ataques en Pakistán, Afganistán, Yemen u otros lugares. Estos dispositivos  son controlados por operadores humanos en bases en tierra y necesitan una  autorización para poder matar.

Se cree que los robots automáticos que decidan por ellos mismos cuando  disparar podrían desarrollarse en 20 o 30 años o "incluso antes", afirma el  informe de 50 páginas, añadiendo que los sistemas de armas que requieren escasa  intervención humana ya existen. 

El sistema Raytheon's Phalanx, utilizados en los barcos de la marina  estadounidense, pueden buscar por sí mismo fuego enemigo y destruir proyectiles  que apuntan en su dirección. El X47B es un drone de tamaño de un avión que  puede despegar y aterrizar en portaaviones sin piloto o incluso repostar en el  aire.

Quizá más cerca al tipo de máquina de matar a lo "Terminator" retratado en  los filmes de acción de Arnold Schwarzenegger, es un robot centinela de Samsung  que ya está siendo usado en Corea del Sur y que cuenta con la capacidad de  detectar actividades inusuales, hablar con intrusos y, cuando recibe  autorización de un controlador humano, dispararles.

Pasar al piloto automático permitiría a las tropas humanas evadir  situaciones peligrosas. El riesgo, sin embargo, es que se dejaría a los robots  en una situación que les permitiría tomar decisiones difíciles por si mismos,  como distinguir entre civiles y combatientes en zona de guerra. 

"Varios gobiernos, incluido el de Estados Unidos, están muy interesados en  moverse en esta dirección, muy interesados en eliminar a los soldados del campo  de batalla y poner máquinas en su lugar, reduciendo, por tanto, la mortalidad",  afirma Steve Goose, director de la división de armas en HRW. 

Mientras que Goose afirma que los "robots asesinos" aún no existen,  advirtió de que ya hay precursores y añadió que la mejor manera de prevenir una  pesadilla ética es una "prohibición preventiva y exhaustiva en el desarrollo o  producción de estos sistemas". 

El problema del control y de la capacidad de toma de decisiones de incluso  los robots más sofisticados es que no habría una forma de hacer a nadie  responsable por los inevitables errores, afirma Noel Sharkey, profesor de  robótica de la Universidad de Sheffield, en Reino Unido. 

"Si un robot se equivoca, ¿quién es responsable? Ciertamente no será el  robot", afirmó. 

"El robot podría llevar una bala en su computadora y volverse loco. Por lo  que no hay forma de determinar realmente quien es responsable y eso es muy  importante en las leyes marciales", concluyó.

Temas

Sigue navegando