A DeepSeek, uma empresa que vem ganhando destaque no campo da inteligência artificial, está no centro de uma polêmica. Especialistas da área suspeitam que a empresa possa ter utilizado dados do Gemini, a família de modelos de IA do Google, para treinar a versão mais recente de seu modelo de raciocínio de IA, o R1.
A falta de transparência por parte da DeepSeek sobre a origem dos dados utilizados no treinamento do R1 levantou questionamentos. A empresa não divulgou publicamente quais fontes foram empregadas para alimentar o modelo, o que alimentou a especulação de que dados do Gemini podem ter sido utilizados sem a devida permissão ou atribuição. O treinamento de modelos de IA complexos como o R1 exige uma quantidade enorme de dados, e a busca por fontes de dados relevantes e de alta qualidade é uma constante no setor.
O uso não autorizado de dados para treinamento de IA é uma questão ética e legal complexa. A obtenção e utilização de dados de terceiros para treinar modelos de IA levanta questões sobre direitos autorais, privacidade e concorrência justa. Caso se confirme a utilização de dados do Gemini pela DeepSeek, isso poderia gerar implicações significativas para a empresa e para o ecossistema de IA como um todo. A discussão sobre a transparência e a ética no desenvolvimento de IA continua a ganhar importância à medida que a tecnologia avança e se torna cada vez mais presente em nossas vidas.
Origem: Link