Mientras que el asistente de inteligencia artificial de Google, Bard (se abre en una pestaña nueva) actualmente está disponible en 180 países (se abre en una pestaña nueva) en todo el mundo, la Unión Europea y Canadá aún no están invitados a la fiesta de la IA. Casi dos meses después de que Google lanzara Bard, su amigable chatbot de IA, la compañía todavía niega el acceso a ciertas regiones, pero no hay una declaración oficial al respecto.
La mejor conjetura es que es posible que Google no esté de acuerdo con ciertas regulaciones entrantes, sin mencionar que, en comparación con las reglas actuales de GDPR, sus procesos ya pueden ser un un poco ilegal .
La próxima Ley de IA de la UE (se abre en una pestaña nueva) se está abriendo camino actualmente en el Parlamento Europeo en un intento por impulsar a los desarrolladores de IA actuales y futuros a hacer que sus productos sean más transparentes y seguros para el público en general. Habiendo hablado con algunos expertos en el tema, Wired (se abre en una pestaña nueva) parece tener la impresión de que Google está ahí afuera pisoteando silenciosamente los detalles del acto.
Incluso en su estado actual, Bard no cumple con los requisitos en lo que respecta a las leyes de la UE relacionadas con la seguridad en Internet. Como dice el analista principal de políticas de Access Now, Daniel Leufer, en el artículo de Wired: «Hay una pregunta persistente sobre si estos grandes conjuntos de datos, que se han recopilado más o menos mediante raspado indiscriminado, tienen una base legal suficiente bajo el RGPD».
Aparte de la ley actual, la Ley de IA mucho más específica y rigurosa que se aprobará a mediados de junio probablemente tendrá un impacto significativo en el funcionamiento de la herramienta de IA de Google.
Una vez que se apruebe el proyecto de ley, se impondrán aún más restricciones a las herramientas que podrían «utilizarse indebidamente y proporcionar herramientas novedosas y poderosas para prácticas de manipulación, explotación y control social», como se describe en la Ley oficial de AI. (se abre en una pestaña nueva) propuesta. Hay menciones especiales para derechos humanos específicos, como el derecho a la dignidad humana, el respeto a la vida privada y familiar, la protección de datos personales y el derecho a un recurso efectivo… todos los cuales y más serán considerados al doblar una IA” alto riesgo.»
Mirando las herramientas de IA de hoy, tengo problemas para pensar en cualquier que no tienen el potencial de invadir al menos uno de esos derechos. Es un pensamiento aterrador, pero tiene sentido por qué Google podría tener algunos problemas cuando se trata de Bard.
Después de todo, como The Register (se abre en una pestaña nueva) notas, Italia, España, Francia, Alemania y Canadá han puesto el ojo en ChatGPT (y presumiblemente en un montón de otras herramientas basadas en IA) por cuestiones de privacidad en lo que respecta a los datos del usuario. Propuesta AIDA de Canadá (se abre en una pestaña nueva) que «entrará en vigor a más tardar en 2025», también pide explícitamente transparencia en el desarrollo de la IA.
Principios de IA de Google (se abre en una pestaña nueva) declara que no perseguirá lo siguiente:
Tecnologías que causan o es probable que causen un daño general. Cuando exista un riesgo material de daño, procederemos solo cuando creamos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad adecuadas.
Armas u otras tecnologías cuyo propósito principal o implementación es causar o facilitar directamente lesiones a las personas.
Tecnologías que recopilan o utilizan información para la vigilancia violando las normas internacionalmente aceptadas.
Tecnologías cuyo propósito contraviene los principios ampliamente aceptados del derecho internacional y los derechos humanos.
Es una lista corta, y una con algunas áreas grises, como el uso de normas «ampliamente» e «internacionalmente aceptadas». No está claro si el backend podría algún día alinearse completamente con las leyes de la UE y Canadá, pero el lenguaje aquí podría ser una forma sutil de aprovechar un poco de margen de maniobra.
Entonces, ¿podría ser que Google esté tratando de hacer un punto al retener a Bard? Potencialmente.
Nicolas Moës, el director de gobierno europeo de IA de The Future Society, parece pensar que es posible. Según Moës, Google bien podría estar intentando «enviar un mensaje a los eurodiputados justo antes de que se apruebe la Ley de IA, tratando de dirigir los votos y asegurarse de que los políticos lo piensen dos veces antes de tratar de gobernar los modelos básicos». Moës también señala que Meta ha decidido retener su chatbot de IA, BlenderBot, también en la UE. Entonces, no es solo que Google está jugando a lo seguro (o sucio).
También podría ser que los grandes se guarden sus juguetes porque ser demandados no es muy divertido. De cualquier manera, hasta que Google publique una declaración oficial, tanto los europeos como los canadienses se quedarán mirando con nostalgia la lista de países disponibles de Bard.