Altman también destacó que los modelos de IA están mejorando en la escritura de código de computadora, lo que podría utilizarse para llevar a cabo ataques cibernéticos ofensivos. A pesar de esto, Altman cree que si se emplea para el bien, la IA podría ser el mayor invento que la humanidad haya desarrollado hasta ahora. Altman advirtió que la IA es una herramienta que está en gran medida bajo el control humano, pero también señaló que existirán personas y compañías que no impongan los límites de seguridad que ponen ellos. Elon Musk y Bill Gates también han expresado su preocupación por los peligros actuales y futuros de la IA.
"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró en la entrevista.
El CEO de OpenAI, Sam Altman, ha expresado su preocupación sobre los posibles peligros que conlleva el avance de la inteligencia artificial en una entrevista con ABC News, que fue replicada por The Guardian. Altman advirtió que, aunque la inteligencia artificial puede ser una herramienta muy valiosa para la humanidad, hay que tener cuidado con los posibles usos malintencionados que se le puedan dar, como la desinformación a gran escala o los ataques cibernéticos ofensivos.
Altman destacó que OpenAI está comprometida a desarrollar la inteligencia artificial de una manera segura y responsable, pero señaló que existen otras personas y empresas que podrían no imponer los mismos límites de seguridad que ellos. "Creo que la sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo arreglarlo, cómo manejarlo", dijo.
Además, Altman también abordó el temor de que las máquinas puedan reemplazar a los seres humanos en el futuro. Aunque aseguró que por el momento la inteligencia artificial está en gran medida bajo el control humano, admitió que es posible que surjan otras personas y compañías que no impongan los mismos límites de seguridad que ellos. Altman cree que la sociedad debe actuar rápidamente para descubrir cómo regular y manejar esta tecnología.
En la entrevista, Altman también habló sobre el "problema de las alucinaciones" que se ha observado en el ChatGPT, la aplicación de inteligencia artificial orientada creada por OpenAI. El modelo puede afirmar cosas con confianza como si fueran hechos completamente inventados, y Altman advierte que es importante pensar en los modelos de inteligencia artificial como un motor de razonamiento, no como una base de datos de hechos.
En los últimos días, tanto Elon Musk como Bill Gates han expresado sus preocupaciones sobre los peligros de la inteligencia artificial. Musk ha dicho que la IA es "más peligrosa que un arma nuclear", mientras que Gates ha advertido sobre los riesgos y preocupaciones que existen, como la amenaza que representan los humanos armados con IA y la posibilidad de que las IA se salgan de control. En resumen, parece haber un consenso cada vez mayor sobre la necesidad de abordar los riesgos potenciales de la inteligencia artificial y de desarrollarla de manera segura y responsable. La pregunta es ¿por qué no lo dijeron antes?
Tu opinión enriquece este artículo: