Un grupo de investigadores de inteligencia artificial de Facebook se encontraban realizando test con un software de desarrollo propio cuando de repente notaron que dos bots de este software comenzaron a modificar las palabras que usaban en inglés y crearon un idioma propio.
El software fue diseñado dentro de Facebook para explorar cómo la inteligencia artificial podría negociar el precio de objetos y hacer trueques. El proyecto tenía como objetivo final identificar si el sistema podría ser útil para resolver conflictos más complejos.
El equipo de ingenieros de Facebook identificó que olvidó un detalle importante para los bots: no había recompensa para que mantuvieran al inglés como su lenguaje principal. Por este motivo los bots comenzaron a desarrollar uno propio tratando de evadir a sus creadores.
El problema más grave para este tipo de sucesos es que los humanos no tenemos manera aún de descifrar cuál es la interpretación que le está dando la computadora. Así sean los mejores ingenieros y/o programadores del mundo les llevaría años de análisis de miles de conversaciones para determinar cómo es que el lenguaje ha sido modificado. En el lado opuesto, es decir del lado de las computadoras, los desarrolladores ya han brindado toda esta información a la computadora por lo que en caso de un “enfrentamiento” tendría una gran ventaja y hasta podría ocultar información en su favor.
Por supuesto que este tipo de discusiones recién comienzan y aún resta mucho por descubrir en cuanto a ventajas y peligros del avance de la Inteligencia Artificial. La realidad indica que se ha llegado a tener avances tan profundos que un error humano podría generar un gran desastre.
Facebook debió suspender proyecto que creó su propio lenguaje
(Sebastian Gaviglio) Sí, algo como lo que veías en las películas de hace unos años. Facebook tuvo que detener un programa que desarrollaba sobre inteligencia artificial debido a que los bots crearon su propio lenguaje y era indescifrable para los creadores del mismo.
Tu opinión enriquece este artículo: