Relatório do Comissário para a Segurança Online do Governo Australiano critica a evolução da política de moderação da plataform X

Relatório do Comissário para a Segurança Online do Governo Australiano critica a evolução da política de moderação da plataform X – Um relatório publicado em Janeiro por este organismo australiano revela que desde a sua aquisição por Elon Musk o pessoal responsável pela moderação foi reduzido em 50%, o pessoal responsável pela segurança foi reduzido em 80% e que mais de 6000 contas previamente suspensas por difundirem discursos de ódio foram reativadas sem medidas especiais de controlo acrescido.

Artigo da autoria de conhecidos peritos em segurança alerta para os riscos da solução “Client Side Scanning (CSS)” como método de vigilância – Num extenso artigo de análise, estes peritos resumem as suas conclusões da seguinte forma: “Pela sua natureza, CSS cria sérios problemas de segurança e privacidade, ao mesmo tempo que a ajuda que pode dar às autoridades a combater a criminalidade é discutível e, com algum otimismo, mesmo problemática. Há muitas maneiras de o CSS falhar, poder ser ludibriado e poder ser usado para abusos contra as pessoas.” As propostas da CE para o combate à pornografia infantil online são também brevemente referidas no relatório.

A Comissão Europeia dá como exemplo uma tecnologia que poderia detetar conteúdos de pornografia infantil (CSAM) cujos proponentes acham, em privado, que pode falhar – A publicação Follow the Money revela que a instituição “sem fins lucrativos”(*) americana THORN está a ser citada pela CE como prova da viabilidade de uma solução para a deteção de conteúdos de pornografia infantil. No entanto, nem a CE nem a THORN tornaram públicos documentos internos que revelam que a tecnologia não dá os resultados que os seus proponentes afirmam. Será que é mesmo caso para “seguir o dinheiro?”.

(*) O ChatGPT também foi inicialmente desenvolvido por uma instituição sem fins lucrativos.

Watermarking será uma forma viável de assinalar que um certo conteúdo foi gerado por IA? Os conteúdos gerados através de ferramentas de IA são cada vez mais usados para gerar desinformação. Uma forma possível de minorar este efeito consistiria em obrigatoriamente identificar os conteúdos gerados desta forma a terem um indicativo da sua origem artificial. Um artigo publicado no blog da EFF (Electronic Frontier Foundation) analisa qual a viabilidade dessa solução e conclui que há boas razões para acreditar que não virá daí nenhuma solução viável para o problema.

Fundação da Internet Society financia com um total de cerca de 6 milhões de dólares projetos de investigação sobre facetas da evolução futura da Internet – De acordo com um comunicado da Internet Society Foundation, esta fundação selecionou recentemente para financiamento 14 projetos sobre a evolução futura da Internet. Foram contempladas 2 universidades europeias, 1 australiana e uma do Zimbabwe. As restantes 10 contempladas são universidades e fundações sediadas nos EUA.


TERTÚLIA TÉCNICA

Os “Large Language Models (LLMs)” por detrás do ChatGPT e do Bard da Google estão a criar problemas graves no aprendizagem relacionada com tecnologias – O uso destas ferramentas, em substituição dos sistemas de pesquisa na WEB mais clássicos, estão a ter um impacto importante na aprendizagem dos estudantes que os usam para o estudo de tecnologia, é o que relata uma professora da Georgetown university no blog dos APNIC Labs. Não se trata de simplesmente favorecerem o plágio, mas de promoverem informação errada de forma aparentemente credível.