Deepseek en el chatgpt «plagy»? Lea el Operai y Microsoft

Foto del autor

By Rita Ora

Openai y Microsoft Comenzaron unIndagine Su Deepseek Después de que los investigadores de seguridad señalaron, a fines de 2024, una extracción de datos anómalos a través de cuentas de desarrolladores de OpenII.

La sospecha es que la compañía china, que recientemente causó una sensación para desarrollar un modelo de IA avanzado con costos extremadamente bajos, ha utilizado el técnica de «destilación» Extraer datos de los sistemas más avanzados de OpenAI. Esta práctica, que viola los términos de servicio de la empresa, le permite crear modelos más pequeños en una fracción del costo significativamente menos de $ 100 millones gastados por OpenII para entrenar GPT-4.

Deepseek construido 'copiar' las respuestas ¿Chatgpt?

La situación generó preocupación a los niveles institucionales y corporativos más altos. Sacks de DavidEl concejal de la inteligencia artificial del presidente Trump, comentó sobre Fox News la existencia de «evidencia sustancial» del uso de la destilación por parte de Deepseek. Openii, en un comunicado en Bloomberg, confirmó que él es consciente de los constantes intentos de las compañías chinas de destilar sus modelos, subrayando la importancia de colaborar con el gobierno de los Estados Unidos para proteger las tecnologías más avanzadas.

Mientras que los desarrolladores pueden usar el Fuego en Openai Para integrar su A a sus aplicaciones, la destilación de los resultados para construir modelos competidores representa una clara violación de los términos de servicio. Operai aún no ha proporcionado detalles específicos sobre las pruebas recopiladas, pero ha destacado cuán crítico es importante trabajar estrechamente con el gobierno de los Estados Unidos para proteger los modelos más capaces de los intentos de apropiación por parte de competidores y oponentes.

Así que Deepseek habría «preocupado» el conocimiento de OpenAi

La destilaciónen el contexto de la inteligencia artificial, es una técnica que permite Conocimiento de «transferir» Desde un modelo hasta el más grande y complejo (llamado «maestro») hasta uno más pequeño y delgado (llamado «alumno»). El proceso funciona haciendo que el modelo más grande responda numerosas preguntas y utilizando estas respuestas para entrenar el modelo más pequeño. Es como crear una versión de «tableta» de una IA más potente, lo que permite obtener un rendimiento similar con recursos computacionales más bajos.