RN 24 Horas

A Noticias Vidrada 24 Horas. Veja toda notícia do Rio Grande do Norte e Região.
As regras do mundo real também devem prevalecer nas redes sociais

A afirmação foi feita durante reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento da violência nas escolas – Foto: Joédson Alves/ Agência Brasil

O ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu, nesta terça-feira, 18, a inclusão de um artigo na legislação brasileira para deixar claro que as regras do mundo real devem prevalecer também no ambiente virtual. A afirmação foi feita durante reunião convocada pelo presidente Luiz Inácio Lula da Silva para discutir políticas de prevenção e enfrentamento da violência nas escolas.

“Precisamos determinar de uma vez por todas que o que não pode ser feito na vida real, no mundo real, não pode ser feito no mundo virtual”, afirmou. Para isso, segundo o ministro, bastaria incluir “um artigo na lei, a ser regulamentado pelo Congresso”. “É simples”, acrescentou.

Na avaliação de Moraes, os problemas de violência e preconceito nas escolas têm uma mesma origem: a desinformação que, em geral, é divulgada nas redes sociais.

“O modus operandi dessas agressões instrumentalizadas, divulgadas e incentivadas pelas redes sociais em relação às escolas é exatamente idêntico ao modus operandi que foi utilizado contra as urnas eletrônicas e contra a democracia. É o modus operandi instrumentalizado para o dia 8 de janeiro. Não há diferença. As redes sociais ainda parecem uma terra de ninguém, uma terra sem lei. Precisamos regulamentar isso”, afirmou o ministro do STF ao informar que o tema tem sido amplamente discutido com os presidentes das casas legislativas.

grandes técnicos
Moraes afirmou que, se não houver “regulamentação e regulamentação” com base em modelos – que inclusive já são conhecidos pelas big techs responsáveis ​​pelas redes sociais –, a instrumentalização feita por meio dessas plataformas para incentivar ataques vai continuar.

“Alguns anos atrás, a deep web espalhava esse tipo de mensagem. A investigação foi muito mais difícil porque foi preciso infiltrar pessoas naquele ambiente para encontrar os responsáveis. Hoje é na rede social normal que isso acontece. Está no Twitter. Você entra no Google e ensina uma criança a fazer uma bomba, e a incentiva a repetir os ataques que aconteceram nos Estados Unidos”, criticou o ministro.

Essas plataformas, segundo Moraes, são ditas como “meros depósitos de informações” e afirmam que, portanto, não poderiam ser responsabilizadas. “Faço aqui uma analogia simples entre os mundos real e virtual. No mundo real, se alguém possui um depósito e o aluga para alguém que o usa para cometer crimes, obviamente não pode ser responsabilizado. Mas a partir do momento que a pessoa conhece e renova o contrato, ela pode ser responsabilizada. E se monetizar ou lucrar com isso, é obrigatório que seja responsabilizado”, argumentou, afirmando que as redes sociais lucram com o incentivo à violência e ao discurso de ódio. “Isso precisa parar imediatamente”, argumentou.

Propostas
Segundo Moraes, com algumas propostas seria possível dar “um grande salto de qualidade” na legislação brasileira. Uma das medidas sugeridas pelo ministro é dar maior transparência aos algoritmos das redes sociais.

“Por que, quando colocamos ‘criança’ e ‘ataque’ [em uma pesquisa]em vez de aparecer a notícia do ataque aparece [instruções sobre] como fazer uma bomba para o bombardeio? Por que uma notícia vem antes da outra?”, questionou.

A segunda sugestão apresentada pelo ministro é a ampliação dos métodos de autorregulação já existentes para pornografia infantil, pedofilia e direitos autorais.

“Perguntei às grandes empresas de tecnologia se elas recebem muitos vídeos de pornografia infantil e pedofilia. Eles responderam que recebem ‘milhares por dia’ e que 93% desses vídeos são retirados antes mesmo de receberem o primeiro like, comentário ou visualização. Tudo baseado em inteligência artificial”, disse ela.

Para os outros 7%, onde há dúvidas, há uma equipe que imediatamente analisa e retira o que for necessário.

“Tudo em poucas horas para pornografia infantil; por pedofilia. E pelos direitos autorais, porque as maiores indenizações das grandes tecnologias são por direitos autorais. Então, aí, eles estão preocupados”, acrescentou ao defender a obrigatoriedade do uso de inteligência artificial e pessoal humano para retirar das redes “discursos nazistas, fascistas, homofóbicos, racistas e antidemocráticos”.

atos de golpe de 8 de janeiro
O ministro acrescentou que, no caso de atos contra a democracia, bastava que as redes sociais colocassem o “elementar do tipo que é crime”. “Se o que estava sendo divulgado – por exemplo, o incentivo à animosidade entre as Forças Armadas e os poderes constituídos – passasse por esse procedimento, não teríamos o 8 de janeiro. Tudo foi organizado e incentivado nas redes. E as redes sabem que são instrumentalizadas.”

“Por fim, uma questão complexa, mas que já existe em outros ramos do direito, é a inversão de ônus. Se a plataforma, com todos esses métodos, identificar a existência de notícias que incentivam ataques – ou estão incentivando mensagens que incentivam o racismo; Nazismo na escola –, ela deve retirar, mesmo que uma ou outra notícia deixe alguma dúvida, e avisar imediatamente quem postou”, acrescentou ao defender que todo esse processo seja feito rapidamente.

Moraes lembrou que agilizar esse processo não só é possível como já foi colocado em prática. “Antes, era determinado o afastamento das redes em até 48 horas, que é uma vida na rede social. Mudamos para duas horas e, na véspera das eleições, para uma hora. No dia da eleição, eles estavam saindo em 15 minutos. Então, é possível”, disse.

“A mesma coisa [pode ser feita] em relação a ataques ou planejamento de ataques contra escolas; ou intimidar alunos; proliferação de discurso racista, nazista ou homofóbico”, acrescentou.

Deixe comentário

Seu endereço de e-mail não será publicado. Os campos necessários são marcados com *.