Manipulação e Internet andam juntas na era das redes sociais, com fronteiras difusas entre factos e informação que exigem educação dos utilizadores e ética dos programadores, de acordo com uma neurocientista e um especialista em computação ouvidos pela Lusa.
A propósito de um debate sobre manipulação de pessoas e sociedades na era da inteligência artificial, a neurocientista Maria Vânia Nunes, da Universidade Católica Portuguesa, disse à Lusa que "é impossível impedir a utilização" das ferramentas da inteligência artificial aplicadas às redes sociais, à Internet ou aos jogos de computador, atraentes mas com riscos associados.
"É difícil tirar um filho das redes sociais ou dos jogos para ir estudar. É mais fácil prestar atenção a algo visual do que a um livro, que requer recursos mais desenvolvidos", indicou.
Da mesma forma, notícias sensacionalistas, "que sempre existiram, mas vemos hoje a uma escala a que não se assistia antes" apelam ao cérebro e ganham espaço porque na Internet se esbatem as hierarquias, "que por alguma razão existem e são naturais na Biologia, muito mais complexas nos humanos", e "como toda a gente tem acesso ao seu tempo de antena, tomam-se por factos as opiniões dos outros".
Um dos resultados possíveis da exposição a este "fluxo constante" é que as pessoas não saiam de uma "câmara de eco" em que tudo o quase tudo o que consomem na Internet só vem confirmar aquilo que já sabem ou pensam que sabem.
A maneira como funcionam os algoritmos que ditam aquilo a que os utilizadores das redes sociais são expostos aprofunda o efeito de viés cognitivo, que torna mais difícil distinguir o que é verdadeiro e influencia a tomada de decisões.
Francisco Correia dos Santos, professor no Instituto Superior Técnico, disse à agência Lusa que os humanos estão longe de conseguir criar uma "inteligência artificial geral".
"Os algoritmos que temos hoje são muito específicos e para tarefas muito reduzidas", mas estão a progredir para ser capazes de trabalhar com a mesma qualidade com quantidades menores de dados, afirmou.
Se, por um lado, isso democratiza a produção de inteligência artificial - com empresas a deixarem de estar dependentes de grandes quantidades de dados - torna necessário um debate ético sobre mecanismos cada vez mais evoluídos de reconhecimento de linguagem natural, texto e até emoções.
"Há 20 ou 30 anos, a ética na inteligência artificial não era muito debatida. Os avanços que teve nos últimos anos justificam a emergência dessa discussão ética que começa a ser bastante transversal na informática", afirmou, acrescentando que os dados "podem ter vieses, e é preciso ter isso em conta quando se usa um algoritmo, ver se terá impacto social e que dimensão terá".
Para Maria Vânia Nunes, a educação tem um papel essencial para garantir "navegação com segurança" e é preciso "estar alerta" porque nada substitui "as competências do mundo real", sem diabolizar as redes sociais e a Internet.
Tanto crianças como estudantes universitários estão sujeitos a erros na avaliação da credibilidade da informação que consomem, ficando cegos aos "diferentes níveis de valor" dessa informação, salientou.
Francisco Correia dos Santos afirmou, por seu lado, que os avanços na inteligência artificial não perdem de vista o "interesse coletivo", mas que ações como vigiar e regular os conteúdos que aparecem nas redes sociais é uma tarefa demasiado grande para ser deixada a humanos.
"Não podemos fazer isso simplesmente a ver o que é publicado", disse, indicando que poderão ser algoritmos criados especificamente para "regular e incentivar certos comportamentos 'online'", o que será, no fundo, outra maneira de manipular.
Francisco Correia dos Santos disse que "havendo tecnologia, quando uma pessoa escreve um 'tweet' e se deteta um discurso demasiado polarizado, pode ser chamada a atenção e questionada: 'De certeza que quer mesmo dizer isto?' pela máquina."
"Não estou a advogar que se deva fazer isto, mas a dar um exemplo de métodos que poderão ser subtilmente introduzidos. Não acredito que a inteligência artificial seja o maior problema com que temos que lidar. Estamos longe de cenários apocalípticos, mesmo que do ponto de vista teórico seja interessante pensarmos nisso", afirmou.
Lusa