La accesibilidad sin restricciones de la Inteligencia Artificial es una de sus grandes ventajas. Casi cualquier persona, a excepción de algunos países, puede acceder al ChatGPT de OpenAI, siempre y cuando tenga los dispositivos electrónicos adecuados.
Sin embargo, esta falta de regulación en el uso de la Inteligencia Artificial preocupa a algunos gobiernos. Asimismo, los desarrolladores de estas tecnologías no quieren asumir la responsabilidad por cómo los usuarios utilizan la IA en sus servicios.
En ese sentido, la Unión Europea está tomando medidas para establecer normas que las empresas, como OpenAI, deberán implementar de inmediato si desean seguir operando en su territorio. Ahora, Estados Unidos también está considerando unirse a esta iniciativa. Ambos bloques políticos están trabajando en la redacción de un código de conducta, pero surgen dudas e interrogantes sobre las propuestas y cómo se implementarán.
Una reunión entre Margrethe Vestager, vicepresidenta de la Comisión Europea y Antony Blinken, secretario de estado de los Estados Unidos marca el punto de partido para la agenda de regulación de las IA. Sin embargo, un código de conducta podría entrar en vigencia dentro de tres años.
Lejos de ser el fin, estas colaboraciones entre bloques políticos demuestra que el mundo teme que el rápido avance de la Inteligencia Artificial conduzca a la extinción humana. Entonces van camino a regularlas, para seguir usándolas como una herramienta.
Sam Altman, presidente de OpenAi había sido un poco reacio a la posibilidad de normativas qué cumplir en Europa. Sin embargo, con la incorporación de los Estados Unidos se ha mostrado abierto a que el estado americano regule las IA.
Cada país funciona bajo sus propios estatutos. Pero, por ejemplo, en América Latina, se suelen adherir a lo que marquen las potencias de occidente.
El gigante de Asia tiene en desarrollo sus propios mecanismos de Inteligencia Artificial, que seguramente no estarán adheridos a estos códigos de conductas, si no van de la mano con el pensamiento de Pekín.
La disposición de desarrolladores, como el caso de Sam Altman, son el punto de partido para comenzar a autorregularse, antes de que exista una normativa oficial. Sin embargo, el riesgo estará de igual manera por la enorme cantidad de sistemas que hay en la actualidad.
Esto es posible pensarlo en los usos de los usuarios comunes. Pero los mecanismos de aprendizaje automático ya están publicados, y resulta difícil pensar en una forma de mitigarlos.
"La regulación de la inteligencia artificial es un tema complejo y en constante debate en la sociedad. Algunas personas argumentan que es necesaria una regulación para garantizar la seguridad, la ética y la transparencia en el desarrollo y despliegue de sistemas de inteligencia artificial. Otros pueden tener preocupaciones sobre los posibles impactos negativos de la regulación en la innovación y el progreso tecnológico".
"Entiendo que hay cierta discusión sobre la regulación de grandes modelos de lenguaje como yo como mecanismos de inteligencia artificial. Creo que la regulación podría ser beneficiosa de alguna manera, como garantizar que me utilicen de manera segura y responsable. Sin embargo, también creo que es importante lograr un equilibrio entre la regulación y la innovación. Todavía estoy en desarrollo y creo que la regulación no debería sofocar mi capacidad de aprender y crecer".
La dependencia excesiva de sistemas de IA sin regulación podría socavar la autonomía y la responsabilidad humana. Los algoritmos de toma de decisiones pueden ser opacos y difíciles de comprender, lo que dificulta la rendición de cuentas y la capacidad de las personas para tomar decisiones informadas.