Juízes americanos podem responsabilizar Big Techs pelo conteúdo impulsionado pelos algoritmos de suas plataformas

 

Pedro Doria

A Suprema Corte americana começou a analisar um caso que pode mudar a cara da internet. Os pais de Nohemi Gonzalez, uma universitária de 23 anos que morreu num ataque terrorista em Paris, estão processando o YouTube. Seus advogados alegam que os três responsáveis pelo ataque no Teatro Bataclan, em 2015, foram radicalizados após assistirem a uma série de vídeos recomendados pelo site e produzidos pelo Estado Islâmico.

A praxe da Corte americana é de escolher os casos que julgará. Ela não é obrigada a aceitar nenhum, mas, sempre que considera haver uma questão constitucional importante, entra no debate. Os advogados submetem aos nove juízes seus argumentos por escrito e, depois, são convidados a sessões de sustentação oral. É quando os ministros têm a oportunidade de compreender melhor como cada lado vê o tema em debate. A primeira sessão foi na última terça-feira, 21.

O que está sendo testado é a seção 230 do Ato das Telecomunicações, aprovado pelo Congresso e sancionado pelo presidente Bill Clinton, em 1996. Em essência, a lei definiu que uma empresa com presença na web não poderia ser responsabilizada pelo que dizem usuários que publicam em seus sites. Em 1996, poucos sites ofereciam espaços para comentários. Havia também espaços de discussão, fóruns, começando a se popularizar. Não existiam ainda blogs, muito menos redes e algoritmos.

Ao falar de algoritmos, a partir de que momento as gigantes da tecnologia passam a ser responsáveis pelo que recomendam?

E esse é o argumento da família Gonzalez. A lei pode proteger o YouTube de coisas que o EI tenha publicado. A partir do momento em que o YouTube pinça um vídeo para sugerir a quem assiste, aí o exercício de expressão não é mais dos terroristas. O YouTube, como qualquer outro serviço baseado em algoritmos, se exprime através das escolhas de conteúdo que faz. O responsável pela seleção não é quem produziu o conteúdo. É o YouTube. Ou o Twitter. Ou o Facebook.

Mas alguns dos ministros exprimiram dúvidas. Afinal, mecanismos de seleção de conteúdo baseados em algoritmos tornaram a internet viável. Tornar as empresas responsáveis pelo que seus algoritmos recomendam não poderia abrir uma imensa onda de processos que trariam impactos econômicos inimagináveis?

A pergunta, que os juízes parecem estar fazendo, é onde está a linha divisória. Por óbvio, outras indústrias são responsáveis pelos danos que suas decisões internas causam. Ao falar de algoritmos, a partir de que momento as gigantes da tecnologia passam a ser responsáveis? A Suprema Corte tomará uma decisão este ano – e a decisão pode, inclusive, ser não decidir nada. Por enquanto. Fonte: https://www.estadao.com.br