Las personas detrás de CHATGPT han expresado las preocupaciones de que los modelos de IA profundos de China, que son significativamente más baratos que las alternativas occidentales, podrían haberse desarrollado utilizando datos de OpenAI. Esta sospecha ha provocado una reacción significativa en la industria tecnológica de los Estados Unidos, con el ex presidente Donald Trump etiquetando a Deepseek como una "llamada de atención" después de una caída masiva de $ 600 mil millones en el valor de mercado de Nvidia.
La introducción de Deepseek ha provocado una fuerte disminución en las acciones de las empresas profundamente invertidas en la tecnología de IA. NVIDIA, un jugador clave en el mercado de GPU esencial para ejecutar modelos de IA, experimentó una caída histórica del 16.86% en el precio de sus acciones. Otros gigantes tecnológicos como Microsoft, Meta Platforms y la empresa matriz de Google Alphabet vieron disminuciones de 2.1%a 4.2%, mientras que Dell Technologies, un fabricante de servidores de IA, cayó en un 8,7%.
El modelo R1 de Deepseek, basado en el de código abierto Deepseek-V3, afirma requerir menos energía computacional y, según los informes, fue capacitado por solo $ 6 millones. Estas afirmaciones han llevado al escepticismo sobre las fuertes inversiones que las compañías tecnológicas estadounidenses están haciendo en IA, causando inquietud entre los inversores. La aplicación de Deepseek rápidamente subió a la cima de las listas de descarga de la aplicación gratuita de EE. UU. En medio de discusiones sobre su efectividad.
Bloomberg informó que Openai y Microsoft están investigando si Deepseek usó la API de OpenAI para incorporar los modelos de OpenAI en los suyos. Openai reconoció a Bloomberg que las compañías chinas y otros están intentando destilar datos de los principales modelos de IA de EE. UU., Una práctica que viola los términos de servicio de Openai.
Operai enfatizó sus esfuerzos para proteger su propiedad intelectual y destacó la importancia de colaborar con el gobierno de los Estados Unidos para salvaguardar los modelos avanzados de IA de ser explotados por competidores y adversarios. David Sacks, AI Czar de Trump, le dijo a Fox News que hay evidencia significativa que sugiere que Deepseek usó la destilación para extraer conocimiento de los modelos de OpenAi, y predijo que las compañías de IA de EE. UU. Pronto tomarían medidas para evitar tales prácticas.
En medio de estos desarrollos, los críticos han señalado la ironía de las acusaciones de Openai, dada su propia historia de usar contenido de Internet con derechos de autor para entrenar a ChatGPT. En enero de 2024, Operai argumentó en una sumisión a la Casa de Lores del Reino Unido que es "imposible" desarrollar modelos de IA como ChatGPT sin usar materiales con derechos de autor, ya que los derechos de autor cubren prácticamente todas las formas de expresión humana. Además, declararon que limitar los datos de capacitación a los trabajos de dominio público no satisfaría las necesidades de los usuarios de hoy.
El uso de materiales con derechos de autor en la capacitación de IA se ha convertido en un tema polémico, destacado por demandas como la acción del New York Times contra OpenAI y Microsoft en diciembre de 2023 para el "uso ilegal" de su contenido. Operai defendió sus prácticas como "uso justo" y desestimó la demanda como sin fundamento. Del mismo modo, una demanda presentada por 17 autores, incluido George RR Martin, en septiembre de 2023, acusó a OpenAi de "robo sistemático a escala masiva".
Los precedentes legales, como el fallo de la Oficina de Derechos de Autor de los Estados Unidos 2018 confirmados por el juez de distrito Beryl Howell en agosto de 2023, han complicado aún más el problema al afirmar que el arte generado por la IA no puede tener derechos de autor debido al vínculo esencial entre la creatividad humana y la protección contra los derechos de autor.
Deepseek está acusado de usar el modelo de OpenAI para capacitar a su competidor utilizando la destilación. Crédito de la imagen: Andrey Rudakov/Bloomberg a través de Getty Images.