Se ha descubierto que la mayoría de los investigadores no informan el código fuente que se usó para enseñar su IA, lo que preocupa a otros científicos porque no pueden simplemente replicar los resultados y seguir trabajando.
En pocas palabras, el creciente campo de la inteligencia artificial se enfrenta a una crisis de replicación. Esto puede sonar normal para algunas personas, pero para los entusiastas de la IA, esto no es menos que un desastre. Pero, ¿por qué necesitamos la replicación o el retroceso de las investigaciones realizadas? ¡Lee más para saber más!
¿Qué es la replicación?
Un proceso en el que un investigador puede retroceder el modelo/software/algoritmo o cualquier material de investigación se conoce como replicación. El campo de la IA se está convirtiendo en una excepción porque hacerlo se está convirtiendo en una tarea cuesta arriba para los profesionales. ¡Sin retroceder, podemos quedarnos atascados!
Lea también: 5 formas en que la inteligencia artificial afectará a los teléfonos inteligentes en 2018
¿Por qué es tan importante retroceder?
A diferencia de la creencia popular, la replicación tiene sus propias ventajas. Puede acceder fácilmente a los resultados para verificarlos o proponer cambios en el paradigma. Esto ha funcionado de maravilla para las personas que investigaban en el campo de la automatización, ya que podían modificar fácilmente las máquinas utilizadas y actualizarlas para siempre.
Entonces, si nos preguntan si es posible replicar los estudios sobre IA, diríamos: “No no se puede.”

Los investigadores generalmente no comparten el código fuente. Según Nicolas Rougier, (un neurocientífico computacional del Instituto Nacional de Investigación en Ciencias de la Computación y Automatización de Francia), las personas ajenas al campo pueden considerar que existen algunas reglas estrictas que pueden producir los resultados deseados, pero las personas que están trabajando en esto saben la verdadera lucha. Sin embargo, no estamos en posición de culpar a nadie por no compartir el código fuente porque estos pueden estar sujetos a derechos de autor de una empresa o, a veces, el investigador pretende ser el primero en presentar cualquier desarrollo al campo. Pero las cosas se complican bastante cuando el software o la máquina funcionan con un algoritmo de aprendizaje automático. Debido a que estas máquinas aprenden a través de experiencias y otras simulaciones, nunca obtendrás nada igual que otras máquinas. Entonces, incluso si en el caso más raro de los raros, obtiene el código fuente, nunca podrá obtener el resultado deseado a menos que haya entrenado su máquina de manera similar.
¡Esta es más o menos una situación hipotética porque nunca tendrá en sus manos la metodología que se usó para entrenar la máquina antes! Confíe en nosotros cuando decimos esto, pero nadie tiene tiempo para probar algoritmos en todas las condiciones posibles, o el espacio de muestra definido en el documento. Esta es una de las razones por las que los proyectos de IA tardan mucho más en diseñarse y desarrollarse en comparación con las máquinas o proyectos convencionales.
¡No se puede negar el hecho de que necesitamos cambiar esta cultura porque sin que crezca exponencialmente seguirá siendo un sueño descabellado!
Lea también: Inteligencia artificial: nuestras vidas nunca volverán a ser las mismas
¿Es esta manera óptima?
¡Los profesionales dicen que debe ser secreto o compartido con solo unos pocos seleccionados para que nuestra seguridad y existencia no estén en juego! Pero, ¿cómo sabremos que aquellos con quienes se ha compartido el código fuente no van a hacer un mal uso de él? Si está pensando que puede diseñar un algoritmo de aprendizaje automático para el mismo, entonces también debe saber que aún no ha alcanzado esa marca. Y por lo tanto, no puede confiar en un algoritmo para detectar el comportamiento humano.

¿Qué debe hacerse ahora?
Podríamos pensar que ser abiertos sobre estos conceptos reducirá el alboroto, pero contrariamente a esta creencia, esto no será menos que un desastre. Las mentes terroristas y no tan cuerdas harán ingeniería inversa y la usarán para la destrucción masiva. Solo podemos recomendar que se forme una junta para probar los algoritmos de la misma manera que opera la industria médica. No dan a conocer la composición del medicamento a menos que haya sido probado y aprobado. Si se hace lo mismo con las máquinas de inteligencia artificial, las cosas no serán tan espantosas como se predijo.
También podemos tomar la iniciativa y en lugar de escondernos detrás de las leyes de propiedad, trabajar juntos será fructífero. En conclusión, no debemos olvidar que las máquinas no están sesgadas y si se espera el “día del juicio final”, todos estamos en riesgo. El trabajo conjunto y el aprendizaje supervisado son las únicas ayudas que nos quedan.
Lea también: IBM Watson: el próximo gran avance en la tecnología del cuidado de la salud
Conclusión
No podemos replicar los estudios, pero las máquinas pueden hacerlo. A fines de 2017, fuimos testigos de que una IA ayudó a crear otra de este tipo. Esta máquina impulsada por IA era un proyecto conocido como AutoML, en el que Google estaba trabajando y, por lo tanto, marcó el siguiente gran paso para la industria de la IA. Vale la pena celebrar el desarrollo realizado, pero al hacerlo estamos ignorando un hecho importante, es decir, debido a que el desarrollo está automatizado, el software se está volviendo mucho más complejo de entender para los humanos.
Si continúa igual, entonces no estamos lejos del día en que las máquinas se crearán a sí mismas sin intervención humana. ¿Es peligroso? ¡Creemos que sí! ¿Qué pasa si estamos ocupados retrocediendo y las máquinas comienzan a crear sus clones? ¡Mantengan sus ojos abiertos amigos!
En caso de que piense lo contrario, o tenga algunas opiniones sobre este tema que valga la pena compartir, ¡déjelas en la sección de comentarios a continuación!