economía

Sam Altman, CEO de OpenAI, pide regular ChatGPT por su capacidad de "hacer daño"

El director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2 participa en un coloquio celebrado en la IE University en Madrid.

El CEO de OpenAI, Sam Altman, en una conferencia en IE University.
El CEO de OpenAI, Sam Altman, en una conferencia en IE University este lunes en Madrid.
EP

El CEO de OpenAI, Sam Altman, cree que la regulación para los pequeños modelos de lenguaje impulsados por Inteligencia Artificial (IA) "no tiene sentido" y apuesta por regular los modelos grandes como, en este caso, ChatGPT de OpenAI, porque son "los que realmente pueden hacer daño".

Así lo ha expresado el director ejecutivo de la compañía creadora de herramientas como Whisper y Dall-E2, en un coloquio celebrado este lunes en la IE University en Madrid, donde ha estado acompañado por el científico de investigación de OpenAI Mo Bavarian; el director ejecutivo del Programa Owners Scaleup, Joe Haslam, y la cofundadora y CEO de Clibrain, Elena González-Blanco.

Durante la ponencia, el CEO de OpenAI ha remarcado que la regulación es "muy importante", pero también ha puesto énfasis en que sobrerregular "no es bueno" ya que, en el caso de las pequeñas compañías de modelos de lenguajes, cortaría su capacidad de innovación y de creación. "No pensamos que la regulación para modelos pequeños tenga sentido", ha observado Altman, al tiempo que ha indicado que la regulación tiene que estar diseñada para los modelos grandes, y prever que realmente "no podamos hacer daño en el mundo". Así, ha sugerido que se debe "dejar crecer" a los modelos pequeños y que lo lógico es centrar la atención de la regulación en los modelos grandes, ya que "somos los que podemos manejarlos".

Igualmente, ha remarcado la importancia de la privacidad y la preocupación que existe en torno a esta cuestión a todos los niveles. En este sentido, ha asegurado que desde la compañía continuarán "trabajando con otros gobiernos alrededor del mundo" para conseguir mejorar los modelos de lenguaje impulsados por IA y proteger la privacidad.

Además, ha apuntado que desde OpenAI quieren llevar a cabo tecnología con la que "la gente se encuentre cómoda y segura". "Queremos hacer lo que la gente quiera. Queremos crear el producto que la gente quiera utilizar", ha aseverado Altman, en referencia al trabajo que han estado llevando a cabo con ChatGPT para mejorar aspectos como la privacidad, la seguridad de los datos y la calidad de la información.

"Es justo y razonable ser escéptico", ha manifestado, al tiempo que ha admitido que el trabajo de la tecnología con la IA "no ha sido perfecto". En este sentido, ha señalado que aunque ha habido "muchos errores", también se ha de tener en cuenta todo el trabajo llevado a cabo para solucionarlos y crear mejoras.

"La gente tiene que probarlas"

De la misma forma, Altman ha explicado que han empujado a estas tecnologías, en este caso ChatGPT, a ser "abiertas de cara al mundo", aún sabiendo que no son perfectas, porque "la gente tiene que probarlas". Así, considera mejor que la gente, las instituciones y los gobiernos prueben una tecnología de estas características, aunque aún no esté completamente lista, para ver "cómo se puede utilizar de forma buena y mala y, con arreglo a ello, adaptarla a la sociedad".

Por todo ello, ha reiterado la importancia de la regulación de los modelos de lenguaje impulsados por IA como ChatGPT, pero también ha hecho hincapié en que lo que preocupa a la compañía es, sobre todo, "hacer lo correcto" y, por ello, ha puesto en valor que llevan ocho meses "haciendo ChatGPT más seguro".

Preguntado por la Unión Europea (UE) en ámbitos de tecnología e inteligencia artificial, Altman ha indicado que el talento y la calidad de desarrollo de tecnología en Europa es "brillante" y ha sido muy importante para este campo. De hecho ha subrayado que OpenAI "no habría ocurrido sin europeos" y que gran parte de su plantilla es de distintos países de la UE. Siguiendo esta línea, ha apostillado que se trata de un espacio donde "todos los ingredientes están dispuestos para ser un lugar de innovación" y que solo se necesita que se tenga "el compromiso de hacerlo". No obstante, Altman ha apuntado que, desde su punto de vista, haría "algunos cambios legales", y que Europa no debería "frenarse", sino "liderar" con su tecnología.

Tal y como ha explicado, el éxito que han tenido ChatGPT y los modelos de lenguaje de OpenAI se basa en tres características. En primer lugar, se trata de un algoritmo "que realmente puede aprender", es decir, puede hacer relaciones entre una gran cantidad de datos y eso "no era obvio para la gente". Además, el algoritmo es predecible; "podemos predecir cómo de buenos van a ser los resultados", según ha explicado Altman. Por último, ha detallado que con "muy pocos datos", es un algoritmo capaz de comportarse como "cualquier sistema de valores". Por todo ello, ha señalado que "tiene todos los ingredientes" para llegar lejos.

En concreto, Altman y Bavarian han explicado que hacen uso de ChatGPT de forma personal "muy a menudo" y que, sobre todo, dentro de OpenAI lo utilizan para codificar y conectar toda la tecnología dentro de la compañía. En este sentido, han remarcado que, sobre todo, la intención de ChatGPT es la de convertirse en un superasistente de IA que pueda "ayudar con todo". Así, han señalado que la idea es que pueda ayudar a realizar pequeñas tareas y que cada vez sean tareas más complejas.

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión