El padre de ChatGPT tiene un plan para regular la IA, pero se olvida de uno de sus mayores peligros
Durante su comparecencia ante el Senado, Sam Altman, director ejecutivo de OpenAI, esquivó las cuestiones sobre la falta de transparencia acerca de los datos con los que se entrena al chat inteligente
ChatGPT: cómo utilizar la IA que te responde a todo lo que le preguntes

«Si esta tecnología (la inteligencia artificial o IA) sale mal, puede salir bastante mal». Así lo dejó claro Sam Altman, director ejecutivo de OpenAI, el pasado martes antes los legisladores en el Senado de Estados Unidos. Durante su comparecencia, el ejecutivo, cuya compañía ha puesto patas arriba Internet gracias a esa máquina parlante llamada ChatGPT, llamó la atención sobre la importancia de que el país norteamericano regule la inteligencia artificial.
Altman, en concreto, destacó tres puntos clave en torno a los que debería girar esa futura normativa: la creación de una agencia gubernamental encargada de otorgar y revocar licencias para la creación de soluciones generativas de contenido, crear un conjunto de medidas de seguridad destinadas a evitar que este tipo de máquinas tengan capacidades maliciosas y la obligatoriedad de que cualquier programa sea auditado por expertos independientes antes de su lanzamiento.
En Europa lo va a tener difícil
Sin embargo, durante la comparecencia, el ejecutivo evitó hacer referencia en todo momento a una de las cuestiones más espinosas y polémicas en lo que se refiere a la inteligencia artificial generativa. El entrenamiento de la máquina. La procedencia de los datos que emplea y el uso que hacen de la información que el usuario vuelca en su interior.
La Unión Europea ya se está moviendo para evitar que OpenAI, Microsoft (que cuenta con un chat inteligente movido por la misma tecnología que ChatGPT), Google y cualquier otra tecnológica que esté dedicada al desarrollo de estas soluciones, sean más transparentes sobre el entrenamiento al que someten a sus máquinas para que sean funcionales.
A finales de la semana pasada, los legisladores de la UE compartieron un nuevo borrador de la futura Ley de inteligencia artificial, que se espera que sea aprobada, incluso, antes de que finalice el presente 2023. En el texto, que está pendiente de aprobación por el pleno parlamentario, algo que se espera que ocurra a mediados de junio, se establece que las empresas que desarrollan herramientas como ChatGPT deberán «diseñar el modelo para evitar que genere contenido ilegal y publicar resúmenes de datos protegidos por derechos de autor utilizados para la capacitación».
Es decir, las empresas estarán obligadas a garantizar que sus sistemas de inteligencia artificial no están haciendo uso de ningún dato que tenga propietario. Algo que, hasta la fecha, no se cumple. Así lo demuestran casos como el que afectan al popular dibujante de cómics español Pepe Larraz, cuyo trabajo fue empleado para capacitar a una inteligencia artificial con resultados sorprendentes. De acuerdo con los planes de la UE, la empresa que recurra al trabajo de un tercero para que su máquina lo replique o ofrezca mejores resultados a sus usuarios deberá pagar al propietario.
Más allá de derechos de autor, la opacidad de OpenAI sobre el entrenamiento de su máquina fue una de las razones por las que Italia anunció su decisión de prohibir ChatGPT en todo el territorio nacional el pasado mes de marzo. La empresa también está en el punto de mira de las agencias de privacidad del resto de la UE por esta razón. Entre ellas se encuentra la Agencia Española de Protección de Datos que, actualmente, se encuentra estudiando si el chat inteligente infringe la normativa europea.
Precisamente, estos movimientos por parte de los legisladores y las agencias europeas son los que han provocado que Google no haya lanzado por el momento su herramienta similar a ChatGPT, Bard, en territorio de la UE.
Datos sensibles al alcance
El hecho de que, como OpenAI reconoce, los datos de los usuarios puedan ser accesibles para los entrenadores humanos de ChatGPT -entre ellos, evidentemente, los más sensibles- es otra cosa que preocupa a los expertos y a los legisladores. También a las empresas. Recientemente, Samsung prohibió a sus empleados recurrir a este sistema como herramienta de ayuda en el trabajo.
La tecnológica dirigida por Sam Altman es consciente del problema, por lo que está trabajando en nuevas opciones -eso sí, de pago- para que los datos que se introducen en la máquina sean secretos.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete