Un reciente informe preparado por el departamento de Ethics and Emerging Technology de la California State Polytechnic University para la Oficina de Investigación Naval de la Marina de los Estados Unidos, advierte sobre los peligros de los usos de robots en combate y hace sugerencias sobre el código de conducta que deberÃan tener, lo que podrÃa no resultar tan sencillo con el creciente avance de las tecnologÃas en inteligencia artificial. Segun este estudio, una de las incognitas es cómo responderán los algoritmos usados en los casos reales, en que las consecuencias de un error pueden ser catastroficas.
Estos robots se manejan mediante radiocontrol, y el incidente consistió en que uno de ellos empezó a mover su arma sin que el operador accionara los mandos correspondientes. La causa mas probable del fallo es algún problema de software.
Aunque el robot no llegó a abrir fuego y, en consecuencia, no hubo riesgo alguno para los soldados, la posibilidad de que un aparato equipado con una ametralladora pueda descontrolarse es lo suficientemente preocupante como para que los militares haya decidido no seguir utilizando estos robots. En Irak se habÃan desplegado cuatro de estos robots armados, aunque estaba planeado desplegar 18 mas.
"Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero".
La realidad, dice Lin, es que los programas modernos tienen códigos de millones de lÃneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podrÃa predecir con exactitud cómo interactuarÃan las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podrÃa o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.
La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.
Los principios o leyes de la robótica, que estableció Isaac Asimov en su novela de ficción, escrita en 1950, "Yo Robot" fueron las siguientes:
1) Un robot no debe de agredir a un humano ni, con su inacción, permitir que un humano sufra algún daño.
2) Un robot debe obeceder las órdenes dadas por los seres humanos salvo si dicho mandato entra en conflicto con la primera de las leyes arriba formulada.
3) Un robot debe proteger su propia existencia siempre y cuando no entre en conflicto con la primera y la segunda de estas leyes.
Sin embargo con la paulatina integración de soldados robots en los conflictos armados se desobedece la primera Ley de larobótica establecida en la novela de ficción de Asimov, que han sido ya incorporadas en el caso del Gobierno Surcoreano. EL ROBOT MILITAR SWORD PROTAGONISTA DEL INCIDENTE EN IRAK CON SOLDADOS ESTADOUNIDENSES. Fuente: vuelodelnavegante
Publicar un comentario
0
Comentarios
Diseño Gráfico
Nuevo
Recent
Anuncio
061 504 622 - 0973 550 896
Av. Pioneros del Este casi Av. Adrian Jara Edificio "J & D"
0 Comentarios