
A rede social descentralizada Mastodon atualizou seus termos de serviço, proibindo o treinamento de modelos de inteligência artificial (IA) com dados de usuários da sua principal instância, Mastodon.social. A medida, válida a partir de 1º de julho, segue uma tendência de plataformas como X e Reddit, que buscam proteger seu conteúdo da raspagem por empresas de IA.
O Mastodon foi claro: "Proibimos explicitamente a raspagem de dados do usuário para fins não autorizados... o treinamento de LLMs com os dados de usuários do Mastodon em nossas instâncias não é permitido."
Os novos termos vetam extração automatizada de dados, exceto por mecanismos de busca padrão para interação humana.
Impacto no Fediverso
Contudo, essa proibição aplica-se apenas ao servidor Mastodon.social. Devido à natureza descentralizada do Fediverso, outras instâncias independentes podem não adotar as mesmas restrições, a menos que atualizem seus próprios termos. Isso evidencia um desafio da governança distribuída: políticas podem variar entre servidores.
O Debate Ético
A decisão do Mastodon intensifica o debate sobre ética na coleta de dados para IA. Como equilibrar privacidade do usuário e inovação tecnológica? A proibição é uma defesa da privacidade, mas pode ser vista como um obstáculo para o acesso a dados diversificados por desenvolvedores de IA.
Além disso, o Mastodon elevou a idade mínima global para usuários para 16 anos.
Conclusão
Conforme noticiado pelo TechCrunch, essa mudança é significativa na relação entre plataformas, usuários e a indústria de IA. A proteção de dados no Mastodon.social pode influenciar outras instâncias do Fediverso, mas também destaca a complexidade da governança descentralizada. A discussão sobre controle e uso de dados para IA continua central para um futuro digital ético.