Opinião

Petição alerta sobre riscos da Inteligência Artificial

Filomeno Manaças

Mais de trezentos e cinquenta (350) engenheiros, pesquisadores e personalidades reconhecidas no domínio, na sua grande maioria norte-americanos, publicaram terça-feira uma petição sucinta em que consideram que a Inteligência Artificial representa um “risco de extinção da humanidade” da mesma maneira que as pandemias ou uma guerra nuclear, e que impedir esse cenário é uma “prioridade mundial”. A notícia é avançada pelo diário francês Le Figaro.

02/06/2023  Última atualização 06H05
Divulgada pelo Centro para a Segurança da Inteligência Artificial (Center for AI Safety), uma associação que reúne os principais actores e operadores nessa área da indústria de alta tecnologia, a petição foi assinada por alguns dos donos das principais empresas do ramo, como a OpenAI, a Google, a Anthropic, bem como por um grande número dos seus assalariados.

Todavia, a mostrar que a discussão do tema não é de todo pacífica, o director de pesquisas da Meta Platforms (ex-Facebook, um conglomerado de tecnologia e media social) não assinou a petição. Yann Le Cun é de opinião que "a Inteligência Artificial sobre-humana” está longe de encabeçar a lista dos riscos existenciais para a humanidade, em parte porque "ela ainda não existe”.

Ou seja, para Yann Le Cun, enquanto a Inteligência Artificial for criação humana e estiver sob domínio do homem, não há razões para preocupações, porque é o homem que continua a estar no comando das situações. É, pelo menos, o que se pode inferir dessa curta declaração feita no Twitter. Porém, a realidade dos factos confere particular robustez às preocupações até agora apresentadas em diferentes quadrantes.

Na base dessas preocupações está, sempre e sempre, a forma como o homem usa as tecnologias, uso esse que, ao afectar de forma grave os valores de coesão social, pode pôr em risco a estabilidade social, política e até mesmo económica, com danos evidentes para a qualidade de vida. Não é preciso ir muito longe para provar que o uso pernicioso das tecnologias teve efeitos nocivos. Exemplos recentes são as fake news e a construção da teoria da pós-verdade ou verdade alternativa, que tiveram como palco privilegiado de afirmação das redes sociais. O coração da notícia passou a ser atacado no seu ponto nevrálgico - os factos e nada mais do que os factos verdadeiros.

Com isso também alguma decência na política deixou de ser observada e a qualidade da democracia se ressentiu, porque aquilo que era suposto ser um denominador comum - o fair play, a aceitação dos resultados eleitorais -, deixou de o ser e sucumbiu à ideia de que o mais importante era (é) jogar no campo das percepções políticas para alcançar os resultados desejados.

Quem está preocupado com os riscos que a Inteligência Artificial generativa representa, olha naturalmente para as fake news, para os defensores da pós-verdade e vê nas novas ferramentas tecnológicas potencial devastador para a implantação do caos, porque a partir dela qualquer mente inescrupulosa pode dar vazão aos seus devaneios e concretizar os seus intentos. Quando os estragos estiverem feitos, só restará apanhar os cacos, como, aliás, já acontece com o assassinato de carácter via redes sociais, com grandes dificuldades de a vítima ver a sua reputação ser restaurada.

No plano do uso social da Inteligência Artificial generativa o perigo está precisamente aí: a possibilidade da mentira poder ganhar um importante suplemento e sobrepor-se ao que, por dever, as instituições idóneas têm a obrigação de prestar como serviço ao consumidor. No campo da empregabilidade, são as consequências como o aumento do desemprego resultante da substituição do trabalhador por robôs com capacidade de desempenhar praticamente as mesmas tarefas, incluindo manter uma conversa dentro de uma lógica humana e com linguagem devidamente articulada.

Nas universidades, quem já está habituado ao "copy paste” e a apresentar monografias plagiadas, terá certamente a tarefa altamente facilitada. Onde o nível de exigência for baixo, o resultado ver-se-á na prática, na hora em que o candidato for chamado a prestar provas.

Quer de um lado quer do outro do Atlântico Norte a preocupação com a regulamentação do uso da Inteligência Artificial é um dado adquirido. Embora com abordagens diferentes devido também às diferenças das famílias de Direito, portanto dos sistemas jurídicos - anglosaxónico nos Estados Unidos e romano-germânico nos países da União Europeia -, o assunto está a avançar. O maior aperto nas regras por parte da União Europeia tem deixado as empresas norte-americanas com um pé atrás. Foi assim com o Facebook, com vários episódios que levaram-no a ter de se ajustar às regras do mercado europeu e a pagar indemnizações chorudas, e está a ser assim com a OpenAI, cujo CEO, Sam Altman, defensor da existência de regulação, a um dado momento ameaçou todavia retirar a sua empresa da Europa se o quadro jurídico-regulatório se revelar "inviável” para a sua empresa.

Outro campo em que há fortes discussões sobre o uso da Inteligência Artificial é o militar, nomeadamente, a sua aplicação para fazer guerra, tendo em conta o que as convenções internacionais determinam sobre tratamento de prisioneiros, feridos, a definição dos alvos, enfim, toda uma panóplia de questões em que a ética, que é recomendada e cobrada, nem mesmo pelos humanos muitas vezes é observada.

E assim vai o mundo…

Comentários

Seja o primeiro a comentar esta notícia!

Comente

Faça login para introduzir o seu comentário.

Login

Opinião