¿Deberíamos enseñar humanidad a las máquinas?

A menos que esté viviendo bajo una roca, es posible que esté al tanto de las advertencias que están siendo bombardeadas por los expertos en IA. Se ha afirmado que una vez que los humanos desarrollen la IA por completo, se rediseñarán y crecerán a un ritmo exponencial. No se puede negar el hecho de que aún no sabemos nada sobre el futuro, pero la IA que hemos diseñado y codificado hasta la fecha no es lo suficientemente madura como para hacerlo. Estamos en la etapa inicial donde les estamos enseñando a tomar decisiones simples por sí mismos.

¿Deberíamos enseñar humanidad a una máquina?

Fuente: techemergence.com

Creemos que al hacerlo, podemos reducir la participación humana en la realización de algunas tareas simples, como juzgar quién puede obtener un préstamo o conducir un automóvil, obtener el siguiente incremento o hacer algunas observaciones que son demasiado rápidas para los humanos. Pero los investigadores están luchando con una pregunta: ¿se debe enseñar moralidad a las máquinas o no?

¿Por qué es una pregunta tan difícil de responder?

Es una tarea cuesta arriba concluir porque las decisiones de la vida real son mucho más complicadas que implementar el prototipo. Por ejemplo, piense cómo una máquina llegará a conocer la equidad en cualquier circunstancia a menos que y hasta que conozca todo el escenario. Nosotros, como seres humanos, tenemos el superpoder de sacar conclusiones después de observar diferentes facetas de una circunstancia, ¡pero las máquinas no actuarán de manera similar!

¿Por qué es una pregunta tan difícil de responder?

Fuente: datasciencecentral.com

Lea también: Internet de las cosas allana el camino para la industria de la construcción inteligente

¡Así que técnicamente no es posible inducir humanidad en nuestras máquinas todavía! La razón detrás de esto es que estamos lejos de inducir un sentido de conciencia y una intuición en los que confiamos la mayor parte del tiempo al tomar decisiones. Sí, estas máquinas son mucho mejores que nosotros para jugar al póquer, manejar la automatización y hacer cálculos similares, pero necesitan supervisión humana. Por ahora, es un debate interminable decidir el destino de la inteligencia artificial, podemos centrarnos en las siguientes pautas en lugar de pelear:

Definición Explícita del Comportamiento Ético y Humano

Necesitamos proporcionar respuestas explícitas para algunas preguntas específicas hasta que no les enseñemos a reaccionar adecuadamente. Sin embargo, esto necesitaría un panel adecuado porque todavía no estamos seguros de nuestra propia ética. Incluso si mantenemos nuestras diferencias a un lado, hay muchas cosas sobre las que no podemos sacar una solución sensata y ampliamente aceptable.

Crowdsourcing moralidad humana

Si deseamos encontrar una alternativa a los conflictos que puedan surgir, entonces las máquinas tampoco estarán sesgadas hacia una sola cosa. Dependiendo de las circunstancias, sus decisiones pueden cambiar, lo que nuevamente daría lugar a conflictos. Ahora si tiene acceso a creencias en las que los humanos han puesto su fe. De esta manera será más fácil sacar conclusiones de una situación.

Crowdsourcing moralidad humana

Fuente: blog.applovin.com

Lea también: Internet de las cosas: las tecnologías IOT más vulnerables

Hacer que los sistemas sean más transparentes

Si observamos el escenario actual, las redes neuronales que guían las acciones de estas máquinas no son del todo comprensibles. Entonces, si sabemos cómo los ingenieros les han enseñado los valores éticos, podemos ver fácilmente quién cometió el error y no culpar al algoritmo que era demasiado difícil de entender. Esto será muy útil para los vehículos autónomos inteligentes, ya que luego aprenderán de sus errores y experiencias.

Esto se recomienda porque sería más fácil para los humanos confiar en máquinas que se comportan éticamente. Además, los principios rectores disminuirían la carga de los agentes artificiales que son responsables de determinar sus acciones. En consecuencia, no podemos ignorar el hecho de que si las máquinas y los humanos necesitaran tomar decisiones juntos, los valores morales compartidos podrían facilitar el consenso y el compromiso.

Lea también: El Internet de las Cosas: Red de Objetos Físicos – Infografía

Para entender esto mejor, pongamos un ejemplo. Visualice un quirófano en el que a un grupo de expertos le resulta difícil tomar una decisión. Ahora, imagina que hay una máquina para ayudarlos. ¡Bueno, básicamente nos volveremos más poderosos al hacerlo! ¡y ahora no podemos esperar a que esto suceda!

¿Qué piensas? ¡Deje sus comentarios en la sección que se proporciona a continuación y háganos saber!

Deja un comentario