Robótica cognitiva y conciencia artificial

20 11 2008

El pasado lunes estuve en la conferencia de Conciencia cognitiva que se ofrecía desde la Carlos III dentro de actividades de la semana de la ciencia.

Ciertamente, y sin más preámbulos, tengo que decir que salí bastante defraudado de esta ponencia porque era la que a priori más me llamaba la atención de todas las actividades programadas. Raúl Arrabales, webmaster de Concious-Robots (web a la que estoy suscrito y que forma parte de los enlaces permantes de este blog), fue el ponente y, como bien decía en su web, no sabía que público se encontraría. Al final se encontró con una muchedumbre de chavalería que creo que se divirtió y pasó el rato. Con suerte alguno se cuestionaría algo sobre robots al terminar el día. Pero la profundidad que esperaba por darse la conferencia en un campus como el de la Escuela Politécnica Superior no es la que encontré. Aunque estoy seguro de que para la mayoría de los asistentes que eran estudiantes de secundaria, y es una cosa con la que has de contar en este tipo de conferencias “abiertas”, fue la mejor manera de hacerlo. Lee el resto de esta entrada »





Desarrollo de robots militares

27 10 2008
  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.

  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con   la Primera o la Segunda Ley.

– Leyes de la robótica – Isaac Asimov

Nunca sabremos si Isaac Asimov hubiese mantenido estas normas robóticas más allá de la literatura para hacerlas cumplir a robots reales. En ese caso jamás aprobaría el desarrollo de robots militares, porque entonces el cyborg dejaría de ser un elemento a favor del ser humano para serlo solo de unos pocos.

Leo vía neoteo, y cada vez me asombra menos, el nuevo paso en el desarrollo de “terminators” por el gobierno estadounidense. Se busca conseguir un equipo de robots que busquen y detecten “humanos no cooperativos” en un entorno de interior. De eso al disparo creo que es cuestión de derechos humanos, y ya sabemos que interés tiene eso en los EEUU. Porque cuando se defienden las guerras desde posturas religiosas se degenera el presente en busca de un futuro que se me presenta, cuando menos, incierto. Es apostarlo todo, lo nuestro y lo del resto, no solo a la existencia de Dios sino a que ese Dios es el nuestro.

Los robots-militares podrían tratarse como un arma de siguiente generación, como si solo significasen un paso más en el desarrollo de las armas actuales. En ese caso la responsabilidad de todos los actos que cometiesen los robots podrían atribuirse a quien los programa. Pero si, como se pretende, se les dota de capacidad propia de decisión, ¿Alguien podrá asumir las decisiones que estos tomen? Todo parece apuntar a que efectivamente sí. La programación de robots ha sido una acción deliberada, libre y voluntaria. Y esta programación se genera a partir de unas premisas que serán más o menos acertadas pero que siempre partirán de un humano. Las consecuencias serán responsabilidad absoluta de los que han tomado esta decisión, por mucho que el final (la búsqueda o la ejecución de “humanos no cooperativos) se resuelva muchos meses después de haber encendido el dispositivo electrónico.

Si con ello consiguen méritos honrosos no dudarán en ponerse medallas. En caso contrario alegarán un absurdo, tal y como ahora se llenan la boca apelando al “fallo informático”.