Há elevados riscos de criminosos e terroristas virem a explorar a Inteligência Artificialhttp://expresso.sapo.pt/internacional/2018-02-21-Ha-elevados-riscos-de-criminosos-e-terroristas-virem-a-explorar-a-Inteligencia-Artificial JOHN MACDOUGALL
Num relatório intitulado “Uso Malicioso da Inteligência Artificial”, uma equipa de especialistas defende que aqueles que desenvolvem estes sistemas têm de fazer mais para mitigar potenciais maus usos e abusos da sua tecnologia e pede aos governos nacionais que avancem com nova legislação na área
A Inteligência Artificial (AI) está cada vez mais desenvolvida e, por isso, cada vez mais vulnerável a potenciais abusos por Estados não reconhecidos internacionalmente, criminosos e terroristas que, na próxima meia década, poderão passar a ser capazes de transformar drones (aviões não-tripulados) em mísseis, de disseminar ainda mais vídeos falsos para manipular a opinião pública e de criar mecanismos automáticos para executarem ciberataques.
Estas são apenas três das ameaças citadas por uma equipa de especialistas num relatório intitulado “Uso Malicioso da Inteligência Artificial”, um documento de 100 páginas que identifica três áreas de grande vulnerabilidade — digital, segurança física e política — e que é subscrito por uma série de organizações da área tecnológica, entre elas a OpenAI, a Electronic Frontier Foundation e o Center for a New American Security. Publicado esta quarta-feira, no relatório é pedido aos que desenvolvem sistemas de AI que façam mais para mitigar potenciais maus usos e abusos das suas tecnologias e é sugerido aos governos nacionais que aprovem nova legislação na área para travar estas ameaças.
O grupo de especialistas defende que legisladores e investigadores devem trabalhar em conjunto para compreenderem o que a AI envolve e para se prepararem para o uso malicioso da AI no futuro, sublinhando que todos devem ter noção destes perigos apesar das coisas positivas associadas a este tipo de tecnologia. Segundo Shahar Avin, do Centro de Estudos sobre Riscos Existenciais da Universidade de Cambridge, em declarações à BBC, o relatório está concentrado em áreas da AI que já estão democratizadas ou que o ficarão nos próximos cinco anos, com os especialistas a optarem por não se concentrarem nos perigos que a Inteligência Artificial encerra num futuro mais distante.
Para Avin, um dos pontos mais preocupantes a ter em consideração é a recém-criada área de reforço da aprendizagem, em que a AI é treinada a níveis que ultrapassam as nossas capacidades sem orientação ou exemplos humanos. O especialista cita possíveis cenários de abusos da AI num futuro próximo, entre eles o recurso de hackers a tecnologias como a AlphaGo, uma AI desenvolvida no âmbito do projeto DeepMind da Google, para explorarem padrões em quantidades maciças de dados bem como falhas nos códigos informáticos. Também aponta que, em breve, pessoas mal-intencionadas poderão ser capazes de comprar um drone e treiná-lo com software de reconhecimento facial para encontrarem determinados alvos mais facilmente e que pessoas ou grupos criminosos poderão automatizar bots para criarem vídeos falsos com o intuito de manipular a opinião pública.
“A Inteligência Artificial vai alterar os cenários de risco para os cidadãos, organizações e Estados”, defende Miles Brundage, investigador do Instituto para o Futuro da Humanidade na Universidade de Oxford. “Quer sejam criminosos a treinar máquinas para executarem ciberataques ou o recurso a mecanismos para a vigilância, perfilamento e repressão [de indivíduos] anulando a sua privacidade, o espectro dos impactos [da AI] na segurança é vasto. Muitas vezes os sistemas de AI não se limitam a alcançar níveis humanos de perfomance, vão muito mais longe que isso. É preocupante mas necessário que se considerem as implicações de ciberataques, vigilância, persuasão e identificação física de alvos a estes níveis superhumanos, bem como as capacidades da AI que são subhumanas mas que, ainda assim, são muito mais escaláveis que o trabalho humano.”
Para Seán Ó hÉigeartaigh, diretor executivo do Centro para o Estudo de Riscos Existenciais e um dos autores do relatório, “a AI veio mudar as regras do jogo e neste documento imaginamos o que o mundo poderá ser daqui a cinco ou dez anos” por causa desses avanços. “Vivemos num mundo que pode tornar-se pleno de perigos diários por causa dos abusos da AI e precisamos de assumir a responsabilidade por estes problemas, porque os riscos são reais. Há escolhas que temos de fazer agora e é isso que o nosso relatório pede aos governos, instituições e indivíduos espalhados pelo globo. Durante muitas décadas, o entusiasmo ultrapassou os factos no que toca à AI e à aprendizagem automática. Já chega. Este relatório analisa as práticas que já não funcionam e sugere abordagens abrangentes que podem ajudar, entre elas desenvolver software e hardware que sejam menos propensos a ciberataques e [adotar] leis e regulações internacionais que complementem isto.”