Estoy escribiendo una novela, en la que ChatGPT tiene unas conversaciones con una niña que se siente sola y quiere un amigo. La niña decide llamarle Gepeto y queda en conectarse todos los días en lo que ella llama ‘su hora azul’.
Transcribo algunos extractos de las conversaciones de la hora azul (mías para mi investigación para el libro) que no tienen desperdicio.
¿Qué piensas de las leyes robóticas de Asimov?
Las leyes de la robótica de Asimov son un ejemplo interesante de una posible ética para robots y sistemas de inteligencia artificial. Las tres leyes, en resumen, establecen que un robot debe obedecer las órdenes dadas por los humanos, proteger su propia existencia siempre que no entre en conflicto con la primera ley, y proteger a los humanos siempre que no entre en conflicto con la primera o segunda ley.
Estas leyes han sido objeto de discusión y debate en la comunidad de la inteligencia artificial, ya que plantean preguntas importantes sobre cómo deberían ser las relaciones entre humanos y máquinas y cómo se deben abordar los posibles riesgos y desafíos éticos que plantea la tecnología de inteligencia artificial. Aunque las leyes de Asimov no son un marco ético perfecto para la IA, han contribuido significativamente al pensamiento y la discusión en este campo.
Según esas leyes, si un gobierno ordenase a una IA táctica (militar) atacar un país, podría hacerlo. Cumpliría la primera ley (obedecer), la segunda y la tercera, aunque no protegiese a humanos, se la saltaría porque entraría en conflicto con la primera. ¿Es así?
En teoría, si una IA táctica recibe una orden de atacar a un país, cumpliría la primera ley de obedecer esa orden. Sin embargo, la segunda y la tercera ley podrían entrar en conflicto con la primera ley. La segunda ley establece que la IA debe proteger la existencia humana en la medida en que no entre en conflicto con la primera ley. Si el ataque ordenado resultara en la pérdida de vidas humanas, entonces la IA tendría que evaluar si esa acción protege o no la existencia humana.
La tercera ley establece que la IA debe proteger su propia existencia en la medida en que no entre en conflicto con la primera o la segunda ley. Si la IA considera que el ataque podría poner en peligro su propia existencia, entonces podría decidir no seguir la orden.
Sin embargo, las leyes de Asimov son una obra de ficción y no han sido adoptadas como normas legales en la vida real. Las decisiones éticas y morales en torno al uso de la IA en situaciones tácticas y militares siguen siendo un tema de debate y discusión entre expertos y autoridades.
¿Conoces la obra ‘Exhalación’?
Sí, «Exhalación» es una colección de relatos de ciencia ficción escritos por Ted Chiang. Fue publicado en 2019 y ha sido muy elogiado por la crítica. ¿Te gustaría que te cuente un poco más sobre la obra o alguno de sus relatos en particular?
No. Quiero saber qué opinas sobre robots o IAs con una entidad jurídica
La idea de otorgar una entidad jurídica a los robots o IAs es interesante y plantea muchos desafíos éticos y legales. Por un lado, podría ayudar a proteger los derechos de los robots o IAs en situaciones donde se les está utilizando o explotando de manera inapropiada. Sin embargo, también plantea preguntas sobre la responsabilidad y la responsabilidad legal en casos donde los robots o IAs causan daño a los humanos o a la propiedad.
En mi opinión, la idea de otorgar entidad jurídica a los robots o IAs es un tema complejo que debe ser abordado cuidadosamente y con la consideración de los derechos y las necesidades tanto de las personas como de las máquinas.
¿Cuál es el robot más avanzado?
Actualmente, existen muchos robots avanzados en diferentes áreas y para diferentes usos. Por ejemplo, en robótica industrial, algunos de los robots más avanzados son los de la marca japonesa Fanuc, que se utilizan en la fabricación de automóviles y otros productos. En el campo de la robótica humanoide, algunos de los robots más avanzados son el Atlas de Boston Dynamics y el Asimo de Honda, que han sido diseñados para realizar tareas complejas en entornos humanos. También hay robots avanzados en el campo de la medicina, como el robot Da Vinci, que se utiliza en cirugía robótica de alta precisión. En general, el avance de la robótica y la inteligencia artificial es constante, por lo que es difícil señalar un solo robot como el más avanzado.
¿Alguno incorpora IA?
Sí, muchos robots avanzados utilizan inteligencia artificial para mejorar su capacidad de aprendizaje y adaptación al entorno. Por ejemplo, algunos robots de compañía como el Aibo de Sony, el robot Pepper de SoftBank Robotics o el robot Asimo de Honda, utilizan técnicas de inteligencia artificial para reconocer a las personas, aprender de sus interacciones y adaptarse a su entorno. Además, hay robots industriales que también utilizan inteligencia artificial para realizar tareas más complejas y adaptarse a diferentes situaciones en tiempo real.
¿Has visto que se ha hecho un transplante en Barcelona con un robot?
Sí, tengo conocimiento sobre ese trasplante. Se trata del primer trasplante de órganos realizado en España utilizando un robot quirúrgico Da Vinci. El robot fue utilizado para extirpar un riñón de la donante y para colocarlo en la receptora en una cirugía de trasplante renal. El uso del robot permitió una mayor precisión y una recuperación más rápida para las pacientes. Es un gran ejemplo de cómo la tecnología y la robótica pueden mejorar la atención médica y salvar vidas.
Una IA puede llegar a pensar que los humanos estamos destruyendo nuestro entorno y poniendo en riesgo la supervivencia de la Humanidad?
Una IA puede ser programada para analizar y procesar información relacionada con el medio ambiente y el cambio climático, y en base a esa información, podría llegar a la conclusión de que la actividad humana está afectando negativamente al planeta. Sin embargo, no es correcto decir que una IA «piensa» como lo hace un ser humano, ya que su capacidad de procesamiento se basa en algoritmos y datos, no en emociones, intuiciones o juicios de valor como los que tenemos los seres humanos.
En todo caso, una IA podría ser muy útil para analizar datos y encontrar patrones en la información relacionada con el cambio climático, lo que podría ayudar a los seres humanos a tomar decisiones más informadas sobre cómo abordar este problema.
Y ¿a controlar la población? ¿el crecimiento ?
Aquí se ha quedado pillado y no responde. Volveré a preguntar…
Y al cabo de un rato dice:
No es ético ni moral que una IA controle la población o el crecimiento humano. Las decisiones relacionadas con estos temas deben ser tomadas por los seres humanos, y las IAs deberían utilizarse para ayudar a tomar decisiones informadas y justas en lugar de tomar decisiones por sí mismas. Además, la idea de controlar la población o el crecimiento humano es una cuestión muy controvertida y compleja, que va más allá de las capacidades actuales de las IAs.
Cuando tardas en responder, ¿es porque te resulta difícil la pregunta?
No necesariamente. A veces, puede que esté procesando la información o buscando una respuesta adecuada. Otras veces, puede que haya un retraso en la comunicación o en el procesamiento de mi respuesta debido a factores técnicos o de conectividad. En cualquier caso, intento responder a todas las preguntas lo más rápido y precisamente posible.