Para mí, la inteligencia artificial se parece mucho a los imanes: no tengo ni idea de cómo funcionan. Pero entiendo, en un sentido muy general, que la IA no es realmente inteligente. Son solo datos, recopilados a gran escala, digeridos algorítmicamente y escupidos en tonos conversacionales diseñados para hacernos pensar que la máquina es «inteligente».
Las versiones populares de estos sistemas, como ChatGPT, viven y mueren en función de la cantidad de datos que pueden recolectar, lo que esencialmente significa que dependen de ti. Y en caso de que haya alguna duda sobre lo que significa «usted» en este contexto en particular, Google (a través de Techspot) ha actualizado su política de privacidad para establecer explícitamente que casi cualquier cosa que diga o haga en línea puede ser recogida y utilizada para entrenar sus modelos de IA. .
Naturalmente, Google recopila datos de su actividad en línea, como las cosas que busca, los videos que ve, las cosas que compra, las personas con las que habla y los datos de ubicación a los que accede a través de su dispositivo móvil Android. Pero «en algunas circunstancias», también recopila información de «fuentes de acceso público»: si su nombre aparece en un artículo de un periódico local, por ejemplo, Google puede indexar el artículo y luego compartirlo con las personas que buscan su nombre.
Eso en sí mismo no es nuevo: lo que ha cambiado, como se puede ver en la página de actualizaciones de políticas de Google, es cómo Google dice que puede usar la información que obtiene de esas fuentes públicas. Anteriormente, la política establecía que los datos disponibles públicamente podrían usarse «para ayudar a entrenar los modelos de lenguaje de Google y crear funciones como Google Translate». La última actualización amplía considerablemente la política: «Podemos recopilar información que está disponible públicamente en línea o de otras fuentes públicas para ayudar a entrenar los modelos de IA de Google y crear productos y funciones como Google Translate, Bard y capacidades de IA en la nube».
Bard es esencialmente la respuesta de Google a ChatGPT, anunciada a principios de este año, y al igual que otros modelos de IA, no ha sido del todo fácil. En abril, por ejemplo, un informe afirmó que varios empleados de Google habían instado a la empresa a no lanzar Bard porque la información que proporcionaba en respuesta a las consultas era «peor que inútil» y convertía al chatbot en un «mentiroso patológico».
Más datos deberían, al menos en teoría, conducir a mejores resultados para los bots de Google. Pero actualizada o no la política de privacidad, el estatus legal de este comportamiento no ha sido claramente establecido. OpenAI se enfrenta a múltiples demandas por la forma en que recopila y utiliza datos para entrenar a ChatGPT: las políticas como la implementada recientemente por Google pueden parecer que hacen parte del juego justo, pero, como informó The Washington Post, los modelos de IA aumentarán bastante. cualquier cosa, desde páginas de Wikipedia hasta publicaciones de noticias y tweets individuales, un hábito con el que un número creciente de personas está en desacuerdo.
Y no todo el material en cuestión es, de hecho, un juego justo: los autores Mona Awad y Paul Tremblay presentaron recientemente su propia demanda contra OpenAI, alegando que ChatGPT violó las leyes de derechos de autor al usar sus obras para entrenar su modelo de IA sin permiso.
Me comuniqué con Google para obtener más información sobre los motivos para cambiar sus políticas de privacidad y actualizaré si recibo una respuesta.