quarta-feira, maio 24, 2023

Fake, fake, fake, fake
- ou apenas o novo real...?

 









Há muito tempo que falo dos imensos riscos da Inteligência Artificial, e tantas vezes já falei disso que sei que me torno repetitiva. Os benefícios são igualmente imensos e, por isso, o recurso a ela serão permanentes e crescentes.

O problema é que, enquanto era coisa apenas ao alcance de uns happy few, havia sério risco mas, enfim, relativamente possível de intervir.

Neste momento já não é possível. A tecnologia tornou-se ubíqua, está ao alcance de meio mundo, tem preços acessíveis e as comunicações distribuem-na por todo o lado. Aquilo a que antes uns quantos, poucos, especialistas tinham acesso agora estão ao dispor, for free. À borla, na ponta dos dedos.

Qualquer um pode obter imagens antes inexistentes, poesia ou prosa a pedido, aconselhamento médico, desambiguação sobre diferentes formas de expressão, explicação sobre a impermeabilização natural das telhas cerâmicas portuguesas, sobre o que se quiser seja de que natureza for. 

Há pouco tempo fui a uma consulta de rotina e estive a falar com a médica sobre o ChatGPT. Contou-me que ainda no outro dia um colega lhe tinha enviado uma opinião sobre um tema médico multidisciplinar, Ela debateu essa opinião com outros colegas. Depois, veio a saber que a opinião tinha sido gerada pelo ChatGPT. E, diz ela, era uma opinião bem fundamentada e que lhes deu muitas pistas.

E já temos algoritmos que assentam na inteligência artificial a interpretar exames médicos complexos e em que o olho humano poderia não detectar a génese de alterações que, no futuro, podem vir a gerar tumores. E isso é extraordinário pois um algoritmo que recorra a ferramentas de inteligência artificial consegue num instante comparar as imagens de um exame com milhões de outras imagens e detectar quando alguma coisa se afasta do padrão de normalidade. Mas deixará de ser bom se houver algum erro na construção do algoritmo e falhar redondamente no diagnóstico sem que nenhum humano faça a validação,  deixando escapar o erro.

Nas empresas já temos as máquinas a aprenderem sozinhas (machine learning) e já as temos a preverem possíveis avarias futuras através da conjugação de factores que elas próprias medem como temperatura, pressão, trepidação, etc. E podem apenas dar alarmes e os humanos que os interpretem e ajam em conformidade ou podem elas sozinhas ajustar parâmetros e/ou fazer parar a máquina. E tudo isto é fantástico. Mas apenas o é enquanto houver humanos que saibam tanto quanto as máquinas, que conheçam bem a lógica dos algoritmos e saibam detectar se alguma coisa de estranho estiver a acontecer. Mas passará a ser um problema dos grandes quando houver fraco conhecimento, desleixo ou falta de inteligência por parte de quem conduz um parque de equipamentos desse tipo.

E nas plataformas mais banais (Google, Bing, YouTube, Facebook, Instagram, etc) tudo funciona 'à base' de algoritmos que detectam, registam e processam o que nos interessa, aquilo em que mais nos detemos, aquilo que vemos até ao fim ou não, etc. E, com base nisso, seleccionam o que consideram que nos vai agradar.

Ou seja, aquilo que vemos é apenas uma ínfima parte do que há para ver (e isso seria sempre pois o que há para ver é quase infinito) mas é o que os algoritmos 'pensam' que nos vai agradar. Ou seja, sem darmos por isso, julgando que estamos a ser livres, estamos, à partida, já bastante condicionados.

Claro que podemos não nos cingir a isso. Podemos fazer pesquisas. Mas o que acontece é que os algoritmos, ao mostrarem-nos aquilo que já 'sabem' que é do nosso agrado e em que têm uma sucessão também quase infinita de coisas para nos mostrar, deixam-nos saciados, sem espaço para irmos, à aventura, pesquisar outras coisas.

Esta questão já foi usada em política, via Cambridge Analýtica para condicionar os eleitores britãnicos levando-os a votarem no Brexit sem saberem o que isso significava. Os riscos de manipulação são ilimitados e nem sempre fáceis de detectar.

Já no outro dia foi notícia a atribuição do prémio Sony, um dos maiores prémios internacionais de fotografia, a uma fotografia lindíssima que mostrava duas mulheres. Como se sabe, de facto aquelas mulheres não existem e aquela fotografia não resultou do registo de uma imagem. Foi totalmente construída por um algoritmo de inteligência artificial dedicado à geração de imagens.

As fotografias que acima mostro (Putin, Merkel e Obama, Macron e Trump) também não existem. São imagens falsas. Foram geradas pela aplicação Midjourney. Podem ser vistas mais em Médecine, climat, droit : l'IA va-t-elle causer notre perte ou nous sauver ?

Também a música lá em cima não foi composta ou interpretada por humanos mas sim obra de inteligência artificial.

Este é um tema que deveria mobilizar a opinião pública mundial criando-se grupos de estudo, comissões parlamentares ou o que for que estudem como regulamentar a utilização da Inteligência Artificial por forma a garantir o seu uso dentro das balizas do rigor, da segurança, do respeito pela humanidade e da ética.

Em vez de andarmos a criar pides de aviário ou a intoxicar a opinião pública com tretas cujo interesse numa escala de 1 a 10 é 0 (sim, abaixo da escala, abaixo de cão), deveríamos prestar atenção a um dos temas mais sérios da actualidade.

A propósito, a opinião de Harari.

AI and the future of humanity | Yuval Noah Harari at the Frontiers Forum

In this keynote and Q&A, Yuval Noah Harari summarizes and speculates on 'AI and the future of humanity'. There are a number of questions related to this discussion, including: "In what ways will AI affect how we shape culture? What threat is posed to humanity when AI masters human intimacy? Is AI the end of human history? Will ordinary individuals be able to produce powerful AI tools of their own? How do we regulate AI?"

The event is was organized and produced by the Frontiers Forum, dedicated to connecting global communities across science, policy, and society to accelerate global science related initiatives.

It was produced and filmed with support from Impact, on April 29, 2023, in Montreux, Switzerland



2 comentários:

Corvo Negro disse...

Olá UJM;
Há alguns dias escrevi isto:
"PALPITE:
A Inteligência Artificial será tão útil como o Nuclear, depende do fim para que são usados."
Acredito que assim vai ser
Abraço e continuação da escrita.

Um Jeito Manso disse...

Olá Corvo

A questão é que para lidar com o Nuclear é preciso formação e mil cuidados e autorizações para entrar em espaços em que 'há' nuclear.

Com a Inteligência Artificial não. é assim. Está ao alcance de toda a gente, impossível de controlar...

Abraço!