Durante uma recente turnê de reformulação da marca, ostentando cabelos desgrenhados aprovados pela Geração Z, roupas de rua e uma corrente de ouro, o chefe da Meta, Mark Zuckerberg, deixou escapar a verdade: os consumidores não controlam mais seus feeds de mídia social. O algoritmo do Meta, ele se vangloriou, melhorou a ponto de mostrar aos usuários “muita coisa” não postada por pessoas com quem eles se conectaram, e ele vê um futuro em que os feeds mostrarão “conteúdo gerado por um sistema de IA”. .

Poupe-me. Não há nada que eu queira menos do que um monte de memes de gatos de desenho animado comedores de tortas e outros resíduos de inteligência artificial (IA) adicionados a todos os clickbait que já obstruem meu feed. Mas há uma fresta de esperança: o nosso sistema jurídico está a começar a reconhecer esta mudança e a responsabilizar os gigantes da tecnologia pelos efeitos dos seus algoritmos – um desenvolvimento significativo, e até possivelmente transformador, que, ao longo dos próximos anos, poderá finalmente forçar as redes sociais a plataformas sejam responsáveis ​​pelas consequências sociais das suas escolhas.

Vamos voltar e começar com o problema. A Seção 230, um trecho da lei incorporado na Lei de Decência nas Comunicações dos EUA de 1996, foi inicialmente destinada a proteger as empresas de tecnologia de alegações de difamação relacionadas a postagens feitas por usuários.

Essa proteção fazia sentido nos primórdios das redes sociais, quando escolhíamos em grande parte o conteúdo que víamos, com base em quem “fazíamos amizade” em sites como o Facebook. Como selecionamos esses relacionamentos, foi relativamente fácil para as empresas argumentarem que não deveriam ser culpadas se o seu tio Bob insultasse sua torta de morango no Instagram.

Então, é claro, as coisas ficaram um pouco mais sombrias. Nem tudo o que o Tio Bob partilhou era preciso e os algoritmos das plataformas priorizaram conteúdos ultrajantes e provocativos de qualquer pessoa com acesso à Internet em detrimento de reportagens mais neutras e baseadas em factos. Apesar disso, os advogados das empresas tecnológicas continuaram a argumentar, com sucesso, que não eram responsáveis ​​pelo conteúdo partilhado nas suas plataformas – por mais enganoso ou perigoso que fosse.

A Secção 230 tem sido agora utilizada para proteger a tecnologia das consequências da facilitação da venda mortal de drogas, do assédio sexual, da venda ilegal de armas e do tráfico de seres humanos. E, entretanto, as empresas tornaram-se algumas das mais valiosas do mundo.

Depois veio o TikTok. Após a grande popularidade do algoritmo “For You” do TikTok, que seleciona vídeos pequenos para serem transmitidos ao espectador passivo, as redes sociais estão cada vez mais nos fazendo assistir a qualquer conteúdo que seus algoritmos escolheram, muitas vezes deixando de lado as postagens de contas que nós realmente escolheu seguir.

Por mais irritante que tenha sido este desenvolvimento, pode ser benéfico na luta para obter mais controlo sobre as nossas vidas online. Afinal, se as plataformas tecnológicas estão ativamente a moldar as nossas experiências, talvez devessem ser responsabilizadas pela criação de experiências que prejudicam os nossos corpos, os nossos filhos, as nossas comunidades e a nossa democracia.

Em agosto, o Tribunal de Apelações do Terceiro Circuito dos EUA decidiu que o TikTok não estava imune a uma contestação legal em relação ao seu algoritmo, que divulgava vídeos perigosos promovendo um “desafio de apagão” mostrando pessoas tentando se estrangular até desmaiar. TikTok entregou um vídeo do desafio para uma menina de 10 anos chamada Nylah Anderson, que tentou imitá-lo e se matou.

Colocar o vídeo no feed de Nylah “foi uma ‘atividade expressiva’ do próprio TikTok e, portanto, seu discurso primário”, escreveu a juíza Patty Shwartz. O juiz, escrevendo para um painel de três juízes, rejeitou a defesa da empresa de que o vídeo foi feito por terceiros e, portanto, protegido pela Seção 230. (A TikTok solicitou ao Terceiro Circuito que reavalie seu caso com um painel mais amplo de juízes.)

Na mesma linha, o Tribunal Superior do Distrito de Columbia decidiu em setembro que a Meta não poderia usar a Seção 230 como escudo contra uma ação judicial movida pelo procurador-geral do distrito, alegando, entre outras coisas, que os “algoritmos de personalização” da empresa foram projetados ser viciante para as crianças, assim como outros recursos prejudiciais, como rolagem infinita e alertas frequentes.

Existem outros casos pendentes em todo o mundo que alegam culpabilidade de empresas de tecnologia pela distribuição de imagens de nudez não consensuais geradas por IA, discurso de ódio e fraudes.

A questão provavelmente acabará na Suprema Corte dos EUA. Em julho, os juízes devolveram duas contestações às leis estaduais que restringem o poder das empresas de mídia social de moderar conteúdo aos tribunais inferiores, sem abordar as implicações para a Seção 230. O juiz Clarence Thomas, porém, sinalizou repetidamente que está ansioso por uma chance. para reduzir as proteções da Seção 230.

Se o tribunal responsabilizar as plataformas pelas suas amplificações algorítmicas, poderá levá-las a limitar a distribuição de conteúdos nocivos, como imagens de nudez não consensuais e mentiras perigosas destinadas a incitar à violência. Isso poderia forçar as empresas, incluindo a TikTok, a garantir que não promovam produtos prejudiciais ou discriminatórios por meio de algoritmos. E, para ser justo, também poderá levar a algum exagero na outra direção, com as plataformas a terem um maior incentivo para censurar o discurso.

A minha esperança é que a construção de novas barreiras legais crie incentivos para a construção de plataformas que devolvam o controlo aos utilizadores. Poderia ser uma situação em que todos ganham: podemos decidir o que vemos e eles limitam sua responsabilidade.

Enquanto isso, existem alternativas. Já mudei a maior parte das minhas redes sociais para o Bluesky, uma plataforma que me permite gerenciar minhas configurações de moderação de conteúdo. Também assino vários outros feeds – incluindo um que fornece notícias de organizações de notícias verificadas e outro que me mostra quais postagens são populares entre meus amigos.

É claro que controlar nossos próprios feeds dá um pouco mais de trabalho do que a visualização passiva. Mas também é educativo. Exige que sejamos intencionais sobre o que procuramos – assim como decidimos qual canal assistir ou qual publicação assinar.

Isso me leva a um tipo de ação muito diferente. Um professor da Universidade de Massachusetts em Amherst chamado Ethan Zuckerman está processando a Meta, argumentando que a Seção 230 lhe dá o direito de lançar uma ferramenta que ajuda os usuários do Facebook a controlar seus feeds.

Espero que ele tenha sucesso. Devolver o poder aos utilizadores não seria apenas bom para nós, como cidadãos, mas também testaria o argumento de longa data das empresas tecnológicas de que o problema com as redes sociais é o que estamos a fazer a nós próprios – e não o que elas nos estão a fazer. NYTIMES

Source link