• Pregunta: ¿Creéis que en unos años los robots estarán listos para comportarse correctamente con el ser humano e incluso obedecer sus órdenes?

    Preguntado por anon-38113 a Anais, Leonardo el 3 May 2020. Esta pregunta también fue realizada por anon-37968, anon-38029.
    • Foto: Anais

      Anais contestada el 3 May 2020:


      Hola Lucia,
      Por su puesto! en tareas muy concretas ya tenemos robots interactuando con personas, por ejemplo la roomba mismo es un robot. Pero existen robots muy complejos capaces de dar de comer a personas que lo necesitas o a vestirlos, robots que trabajan como guías turísticos o robots ejerciendo de camareros.

    • Foto: Leo Colombo

      Leo Colombo contestada el 10 May 2020:


      Hola Lucia, Alopezaball y Juan,

      Me acabo de dar cuenta que no había respondido esta pregunta, lo siento. Son tantas que se me pasaron algunas !

      Es una pregunta super interesante, porque cuando generalmente se habla de robótica, la gente piensa en Inteligencia Artificial (IA) y lo peligroso que podría ser, y generalmente nos acordamos de películas que vimos relacionadas a la IA. En mi caso, si vieron mi perfil, imaginaran que es con Vengadores 2 la Era de Ultron 🙂

      Esta pregunta que hacen ustedes tres, creo que, es la más natural de todas. Estefania mi esposa siempre que miramos Vengadores 2 me vuelve a preguntar si lo que yo estudio sobre drones podría revelarse contra el humano, así que ya más o menos sé como contar la historia. Pero lo que ustedes preguntan ya se lo habías preguntado Isaac Asimov alrededor de 1930-1940 cuando la IA era solo ciencia ficción.

      Por ello,  Asimov, estableció 3 leyes básicas con las que los robots tienen que ser diseñados para evitar que se rebelen contra sus creadores (los humanos). El decía que en caso de que alguna de estas tres normas no se cumpliera, el robot se apagaría inmediatamente.

      Las leyes son las siguientes:
      1. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
      2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley.
      3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Ley.

      Basada en estas tres leyes de Asimov sobre la IA, la Comisión de Asuntos Jurídicos del Parlamento Europeo presentó un informe, en el que se establecen una serie de propuestas para regular el avance de la robótica y que los científicos Europeos debemos seguir para hacer de la robóticas y la IA disciplinas seguras y reguladas para el ser humano. El desarrollo de la robótica esta lleno muy rápido, y como tal hay que adaptarse a esta nueva realidad y establecer unas normas éticas que normalicen su utilización. Este informe y regularización era muy necesario, ya que vivimos en un mundo en el que ya existen coches que no necesitan conductor, y en el cual hay una preocupación gigantesca de la gente de que en unos años  el trabajo de las maquinas pudiese reemplazar al de los humanos. 

      Estas regularizaciones incluyen entre otras cosas que los robots paguen impuestos, que los robots tengan algo como un “botón de la muerte” que los desactiva en caso de emergencia, que no se puedan establecer relaciones emocionales con los robots, que no hagan daño a los humanos,…

      Muchos matemáticos estuvieron muy preocupados a lo largo de la historia con la pregunta que ustedes tres hacen: se nota que tienen curiosidad de científicos!. Los mas conocidos en estos temas son el matemático británico Irving Good y el matemático estadounidense Vernor Vinge. Good en el artículo del New Scientist en 1965,  “Logic of Man and Machine “ se preguntaba si las maquinas pueden ser mas inteligentes que los humanos. El decia que “la maquina” iba a ser muy superior a la mente humana. Vinge, sin embargo, afirmaba que “De aquí a treinta años, tendremos los medios tecnológicos para crear inteligencia superhumana. Poco después, la era humana habrá acabado.» Esto lo dijo en una conferencia en 1993.

      Todo esto que preguntasn esta relacionado con la hipótesis de Singularidad tecnológica de la Inteligencia Artificial, por si les interesa investigar sobre ello, pueden echarle un vistazo al link de wikipedia: https://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica

      En tres años son esos treinta años que Vinge decia. Yo no lo veo tan catastrófico y alarmante. Ni en tres años, ni cinco, ni diez, ni quince eso sucederá. Los siguientes años habra mucha seguridad y legislación al respecto, aunque la robóticas e IA siga avanzando a pasos de gigante.

Comentarios