«Open AI se creó porque creímos que podíamos mejorar todos los aspectos de la vida humana, pero también surgieron peligros que es preciso corregir«, dijo Sam Altman, el creador de ChatGPT al presentarse ante una comisión del Capitolio norteamericano. Lo hizo para alertar sobre el peligro del desarrollo de la Inteligencia Artificial sin ningún tipo de control por parte del ser humano.
Es el CEO de OPEN AI, la empresa que llevó a la evolución de la Inteligencia Artificial hasta un paso previo a poder tomar sus propias decisiones sin necesitar al cerebro humano.
Por eso los pedidos de introducir controles o límites van desde los programadores, los que desarrollaron la I.A. como Sam Altaman o Geoffrey Hinton (apodado «el padrino»de las I.A.) hasta funcionarios del pentágono.
Sam Altman alerta al congreso de EE.UU. sobre la necesidad de establecer controles o límites para la inteligencia artificial. (Foto: Captura de TV)
“Si la inteligencia artificial sale mal, puede salir muy mal”
Así de directo fue el «padre de la criatura» ante los congresistas en Washington. Explicó durante varias horas que así como puede ser de una ayuda incalculable en todas las tareas y aspectos de la vida humana, un desarrollo sin ninguna clase de control podría eventualmente poner a la humanidad en un punto límite. Esto podría darse cuando las máquinas «piensen por sí mismas», es decir, posean tanta información que ya harán sus propias inferencias y no necesitarán la «guía» del hombre.
Una comisión especial escuchó las prevenciones del CEO de OPEN AI sobre la Inteligencia Artificial. (Foto: Captura de Pantalla).
Regular la tecnología
Luego de enumerar una cantidad de aspectos que podrían hacer inmanejables e ingobernables a las máquinas con una inteligencia artificial muy superior a la actual, Altman se mostró partidario de controles para las compañias que se dediquen a este adelanto tecnológico e infromático revolucionario.
Incluso dijo estar de acuerdo en que el mejor método puede ser una Comisión por crear por parte del Gobierno para regular y monitorear a las compañías. Nada de eso existe aún por lo que cualquier compañía puede ignorar cualquier límite ético o moral en el desarrollo de máquinas que piensen más rápido y mejor que nosotros, a punto tal, de poder decidir un día que somos obsoletos.
La batalla por el desarrrollo de la Inteligencia Artificial puede tener un costo irreversible para el ser humano. (Foto: A24.com)
Como toda herramienta, puede tener dos caras
Altman señaló en la comisión que la I.A. puede “ayudar a lograr nuevos descubrimientos y a abordar algunos de los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer”.
Pero al mismo tiempo, si no se introducen mecanismos de control o límites, puede tener efectos negativos irreversibles.
Por eso, pidió que esa futura comisión debería ocuparse de cosas fundamentales: «Dar y quitar licencias a las empresas de IA y garantizar el cumplimiento de las normas y sobre todo, crear un conjunto de estándares de seguridad”.
Estuvo secundado y respaldado por otras dos mentes brillantes. Christina Montgomery, de IBM y Gary Marcus, profesor emérito de la Universidad de Nueva York.
Los tres hicieron una comparación muy inquietante pero simple de comprender. La necesidad de una agencia que supervise lo que se haga, en Estados Unidos y en todo el planeta. Algo similar a la Agencia Internacional de Eneergía Atómica (AIEA de Naciones Unidas).
Así como debemos lidiar diariamente con el peligro de una hecatombe nuclear, con la I.A. puede suceder algo similar para la especia humana. “Las decisiones que tomemos ahora tendrán efectos durante décadas, tal vez incluso siglos y estamos yendo tarde”, advirtió Altman.
Fuente: A24