Este website utiliza cookies que facilitam a navegação, o registo e a recolha de dados estatísticos.
A informação armazenada nos cookies é utilizada exclusivamente pelo nosso website. Ao navegar com os cookies ativos consente a sua utilização.

Diretor Fundador: João Ruivo Diretor: João Carrega Ano: XXVII

Paulo Dimas, CEO do Centro para a Inteligência Artificial Responsável ‘Temos de formar mais pessoas em IA’

16-09-2024

Um maravilhoso mundo novo em muitos domínios da sociedade, mas com perigos à espreita. Voz autorizada em matéria de Inteligência Artificial, Paulo Dimas identifica os riscos e os benefícios, sem esquecer os impactos ao nível da educação.

Estima que cerca de 100 milhões de pessoas interajam diariamente com a Inteligência Artificial (IA). Para que o leitor tenha a noção, em que gestos, dos mais simples aos mais complexos, que fazemos diariamente, é que contactamos com ela?
As utilizações de IA são múltiplas e conheceram um substancial avanço, há cerca de dois anos, quando tivemos um salto mais cedo do que o esperado, com o ChatGPT. E vão desde o texto, a imagem e a voz. Ao nível da escrita permite, para dar um exemplo, melhorar e completar o que estamos a escrever no telemóvel ou no email. Ou até mesmo fazer o trabalho de casa da escola. Para além de textos, pode gerar imagens com enorme qualidade e realismo, que vão desde paisagens, pessoas ou animais. Ao nivel da voz, há modelos que já compreendem a fala humana. Por exemplo, é possível conversar com um tutor personalizado que nos ajude a aprender sobre equações diferenciais de forma muita natural e usando a nossa própria fala.

O progresso imparável da IA generativa divide opiniões: uma fonte de oportunidades ou um poço de ameaças. Este progresso vertiginoso é também um teste à inteligência, à prudência e à sensibilidade dos humanos?
Tem, de facto, havido muita especulação à volta dos novos modelos de IA e diversas comparações com a inteligência humana e até com as nossas emoções. Houve, inclusive, um trabalhador da Google que achou que as máquinas tinham ganho consciência. A realidade é bem diferente. O paradigma vigente é muito limitado em termos de operações aritméticas e de lógica. Não há um modelo de causalidade. Há sim modelos estatísticos, baseados em informação abundante, que nos podem ajudar em muitos domínios, nomeadamente nas área da saúde e da educação.

Roy Amara, visionário, e um dos pioneiros de Silicon Valley, disse: «Tendemos a sobreestimar o efeito de uma tecnologia no curto prazo e a subestimar o seu efeito no longo prazo». É o que, de alguma forma, explica as reações de ceticismo?
É um fenómeno de “hype”, que gera, inicialmente, uma grande onda de entusiasmo, mas como humanos que somos temos medo do desconhecido e do que é novo. Creio que devemos valorizar a utilização benéfica da IA. Já existem utilizações generalizadas, por exemplo, na deteção de conteúdos tóxicos ou racistas nas redes sociais. Dou outro exemplo: tomara que não, mas se aparecer uma nova pandemia, a IA pode ajudar-nos a descobrir mais rapidamente uma nova vacina. Também na saúde já é usada para a descoberta de novos medicamentos. Ou nos próprios hospitais para aumentar a sua eficiência. Em suma, por vezes, esta ideia catastrofista e alarmista faz com que ignoremos o uso benéfico da IA.

Mas a IA comporta riscos reais que importa não ignorar. Está de acordo?
Sem dúvida e esses riscos estão ligados à IA responsável, garantindo que a tecnologia é usada para o bem do ser humano. Por exemplo, a IA não pode discriminar uma pessoa que está à procura de emprego, em função da raça, da idade, estatuto social ou de outro critério. Pelo menos na Europa é proibido que monitorize emocionalmente trabalhadores das empresas. Também no “velho continente” não é legalmente permitido avaliar os alunos que estão mais ou menos atentos na sala de aula. O que não quer dizer que não seja possível noutras latitudes. Outro risco é o da desinformação. Para o “World Economic Forum” é mesmo a maior ameaça, ainda para mais quando neste e no próximo ano cerca de 3 mil milhões de pessoas são chamadas a votar em todo o mundo. Considero que o maior risco do impacto nocivo da IA é para o sistema democrático, pelos conteúdos falsos que são veiculados e pelo caráter persuasivo que consegue imprimir às mensagens. Temos de estar atentos. Agora falar de risco de extinção de espécie é um manifesto exagero, faz-me lembrar as capas da revista “Life” dos anos 60, com títulos a dizer que os robôs iam dominar o mundo, formando autênticos exércitos, preparados para eliminar os humanos.

Se não estivermos vigilantes, os pilares do sistema democrático podem colapsar?
Essa parte é perigosa. O escritor israelita Yuval Harari escreveu recentemente um artigo para o “New York Times”, em que defendeu que podemos vir a ser presas fáceis para a IA se não colaborarmos entre nós. Este é um discuso catastrofista e que chama muito a atenção da opinião pública. Mas não escondo que me preocupa mais a vertente da capacidade persuasiva da IA junto dos seres humanos. Contudo, é algo cujo impacto ainda está a ser avaliado.

Portugal é líder a nível global na área de IA na saúde. A medicina será um dos setores mais beneficiados?
Os usos na saúde são diversos e neste domínio a IA pode ser particularmente transformadora. Por exemplo, no tratamento e diagnóstico de doenças. Assistir o médico quando está a tentar identificar a patologia de um doente. Identificar tumores malignos que o médico não conseguiu detetar numa primeira observação. No fundo, ajudar a salvar vidas. Do ponto de vista terapêutico, já é possível fazer fisioterapia sem sair de casa, no período de recuperação de uma cirurgia ou um AVC. Na Unbabel criámos um produto que permite restaurar a capacidade de comunicação de pacientes que sofrem de esclerose lateral amiotrófica com as suas famílias, transformando biossinais em linguagem. Num domínio mais vasto, e talvez menos falado e conhecido, a IA pode ser usada para aumentar a eficiência das unidades hospitalares. É sabido que a falta de camas disponíveis nos hospitais é um problema crónico. A IA pode aumentar a eficiência na disponibilização das altas médicas e, com isso, libertar camas, poupando trabalho que, por norma, compete ao médico e lhe ocupa tempo.

Um estudo recente estima em cerca de 300 milhões os empregos que vão ser sacrificados pela progressão da IA. Esta previsão do impacto no mercado de trabalho peca por excesso ou por defeito?
É inegável que o estudo da Goldman Sachs perspetiva um impacto muito significativo. Contudo, é preciso separar a eliminação de empregos da automação de tarefas. Explico: sobre a profissão de radiologista, um grande especialista dizia, em 2016, que dentro de 5 anos não faria sentido formar mais profissonais nesta área porque a IA iria ser superior. Em 2024 isso ainda não aconteceu. Motivo: esta, tal como outras profissões, é composta de várias tarefas. O profissional analisa o raio-X, fala com outros médicos, fala com o doente, ocupa tempo a solicitar equipamentos novos, etc. Outro exemplo: quando a folha de cálculo foi introduzida, na década de 70, achava-se que a profissão de contabilista ia desaparecer. Isso não aconteceu. Estes profisisonais passaram a ter uma nova ferramenta que os ajudou no seu trabalho, podendo, fruto disso, dar conselhos mais completos e mais estratégicos aos seus clientes. As profissões no âmbito da manipulação motora – caso do canalizador – também não se antecipa que sejam afetadas, até porque, para muitas tarefas, a mão humana é muito mais difícil de replicar do que o cérebro humano. Mas há profissões que estão condenadas. É o caso do “telemarketing” ou do operador de “call center”. São tarefas altamente repetitivas e já hoje existem muitos “chat bots” a fazer esse papel.

Talvez não seja do conhecimento do público em geral, mas a IA exige um consumo desmesurado de energia. Como compatibilizar essa exigência permanente, diária e crescente, fruto da sofisticação tecnológica, com um mundo a braços com desafios tremendos em matéria de sustentabilidade?
Essa é a questão do momento e que subiu para o topo da discussão. A IA requer um aumento exponencial do consumo energético, o que torna difícil de prever pelo ser humano. Para se ter uma ideia: do ChatGPT1 para o ChatGPT2 foi consumida 200 vezes mais energia. Na transição para o ChatGPT3 foi consumida cerca de 70 vezes mais energia. Depois, 50 vezes mais energia. E fala-se que o ChatGPT5, que sairá em breve, consumirá também mais 50 vezes do que o modelo anterior. Uma simples pesquisa que fazemos no Google está a consumir energia. Esse foi o motivo pelo qual a Google não avançou logo para a IA generativa. Ja imaginou o que seria em termos de custo energético para esta multinacional? Não seria lucrativo.
Por seu turno, o supercomputador de Barcelona (MareNostrum5) consome 8 “megawatts” de energia, o equivalente a cerca de 5 mil lares. Mas fala-se de outros que já consomem quase 100. Algumas projeções apontam até que pode haver um novo Estado nos Estados Unidos, em 2030, do ponto de vista de consumo energético ou um país do tamanho da Argentina ou da Holanda a mais no mundo. Na verdade, não se sabe onde isto vai parar.

Advoga alguma solução imediata?
A viabilidade económica destes serviços será a única forma de equilibrar e manter o uso massificado de energia. Por isso é que as grandes empresas tecnológicas estão numa competição desenfreada pela corrida ao armamento energético. No imediato, defendo o recurso a algoritmos mais eficientes do ponto de vista energético. Esta é uma das áreas da IA responsável e também estamos a trabalhar neste domínio em Portugal.
É CEO do Centro IA Responsável no nosso país. Quais os objetivos desta estrutura, cujo consórcio é liderado pela Unbabel, que nasceu de uma das agendas mobilizadoras do Plano de Recuperação e Resiliência (PRR)?
O objetivo passa por desenvolver produtos que tenham impacto na vida das pessoas, resolvendo problemas concretos de setores e também de empresas. No fundo, levando os valores «humanos» para o mundo das máquinas inteligentes. Em termos do país, queremos aumentar as exportações nacionais, exportando os produtos por nós desenvolvidos. E neste Centro já conseguimos exportar mais de 95 por cento da tecnologia produzida. No fundo, criar valor económico, gerando um círculo virtuoso. Com isto cria-se emprego qualificado e contribui-se para dar dinâmica à ecomomia. Quero salientar que este é um Centro único a nível global, porque a criação de produtos obedece a quatro pilares: eficiência, não discriminação e equidade, mantêm a privacidade dos utilizadores e são confiáveis. Já se fez muito, mas há muita margem para investigar. Nesse sentido, fizemos uma parceria com sete centros de investiçação de várias universidades do país, lançando cinco projetos em vários dominios. Este é um consórcio aberto e que gostariamos de ver, ainda mais expandido, este ecossistema à escala nacional. Muito em breve vamos alargar a parceria à Universidade do Minho.

No último acesso à universidade, manteve-se a tendência de subida da médias dos cursos relacionados com IA, robótica e engenharia aeroespecial. As instituições do ensino superior vão ter de continuar a adaptação dos seus cursos a esta realidade?
Sem dúvida. Temos de formar mais pessoas em IA, até pelo impacto que esta área está a ter e vai ter para qualquer economia do mundo. É uma necessidade premente, também em termos de inovação e criação de produtos. E basta avaliar o que digo pelo nível salarial um pouco absurdo das pessoas que trabalham em IA, o que se explica pelo facto de a disponibilidade de recursos humanos ainda ser escassa. O mercado ainda é muito reduzido em termos da oferta. Têm aberto novos cursos, mas é preciso mais. O mercado assim o exige.

O ChatGPT permite fazer trabalhos de casa, copiar em exames e fabricar teses de mestrado e doutoramento. Como é que a comunidade escolar se deve adaptar a este novo mundo?
O modelo de avaliação tem de evoluir e adaptar-se a esta nova realidade. Os professores universitários com quem tenho falado admitem que começam a dar muito mais importância à parte oral para avaliar os estudantes. Isto apesar de alguns até estimularem o uso do ChatGPT para fazer trabalhos. Só que, posteriormente, o trabalho terá de ser exposto e defendido em prova oral. Já ao nivel dos exames, a questão não se coloca, visto que deve continuar a não ser usada esta ferramenta.

A poucos dias do início do ano letivo, o governo recomendou a proibição do uso e entrada de telemóveis em escolas do 1.º e 2.º ciclo. Qual é a sua opinião?
Acho positivo. A utilização do telemóvel é uma distração em ambiente escolar de aprendizagem e contraproducente em matéria de ensino. A IA foi usada para manipular as pessoas, fornecendo-lhes conteúdos sucessivos e deixando os humanos presos aos ecrãs. É o que se chamou de economia da atenção. Mas é preciso ver o outro lado. Também não escondo que existe a vertente positiva do uso do telemóvel, como uma espécie de tutor personalizado, que nos ajuda a saber mais sobre diversas áreas. É uma questão que exige bom senso e equilíbrio.

 

CARA DA NOTÍCIA

Um fascínio precoce pela IA

Começou a programar aos 13 anos. Aos 14 anos criou uma aplicação para a gestão de “stocks” de armazéns que viria a ser o primeiro produto comercial com a sua assinatura. O fascínio pela IA nasceu aos 16 anos, quando começou a traduzir um livro sobre um tema desconhecido para a maioria. Em 1988, era ainda um adolescente, participou no programa «Ponto por Ponto», apresentado pelo saudoso Raúl Durão, na RTP, em que sugeria videojogos para o Spectrum e o Commodore. Integrou o INESC como estagiário aos 16 anos e frequentou o curso de Informática, ramo de Inteligência Artificial, no Instituto Superior Técnico. Chama-se Paulo Dimas, tem 54 anos, e já ganhou vários prémios de empreendedorismo e tem duas patentes registadas em seu nome. Atualmente, é vice-presidente para a inovação de produtos da Unbabel (uma plataforma de tradução humana movida a IA) e dirige o Center for Responsible Artificial Intelligence da mesma empresa.

Nuno Dias da Silva
Direitos Reservados
Voltar