Utviklingen av kunstig intelligens, maskinlæring og roboter – og IT-teknologi mer generelt – går for tiden svært raskt.
Innen industri, medisin og mange andre felt skjer det framskritt som menneskeheten kan ha stor nytte av. Men nye teknologiske muligheter skaper også nye farer.
– Kunstig intelligens kan skape nye trusler, eller forandre allerede eksisterende trusler, sier Seán Ó hÉigeartaigh ved universitetet i Cambridge i Storbritannia.
Han har deltatt i arbeidet med en ny rapport om hvordan AI med hensikt kan brukes til skadelige formål.
AI kan bli et viktig verktøy både for kriminelle, terrorister og autoritære politiske ledere, advarer forfatterne bak rapporten.
Hackere kan potensielt bruke AI til å automatisere prosessen bak store dataangrep. Etter hvert som AI-teknologien blir mer avansert, kan den brukes til å innhente personlige opplysninger om et stort antall mennesker. Dette kan muliggjøre personlig tilpassede forsøk på å lure hver og en av dem til å gi fra seg sensitiv informasjon.
Hvis selvkjørende biler blir utbredt, frykter forfatterne at terrorister vil kunne klare å hacke store antall kjøretøyer og krasje dem.
Eksplosiver og teknologi for ansiktsgjenkjenning kan gjøre droner til «ansiktsgjenkjennende missiler».
I rapporten beskrives ett mulig scenario hvor angripere klarer å lure en liten rengjøringsrobot inn i et tysk departement. Roboten er utstyrt med eksplosiver og teknologi for ansiktsgjenkjenning.
Først nøyer maskinen seg med å vaske ganger i bygningen hvor det fra før finnes roboter av samme type. Men når ministeren kommer forbi, blir ansiktet gjenkjent av den fiendtlige roboten. Den vasker seg sakte, men sikkert nærmere den intetanende politikeren, før bomben utløses.
– Personlig er jeg spesielt bekymret for autonome droner som blir brukt til terror, og automatiserte cyberangrep utført av både kriminelle og statlige grupper, sier Oxford-forskeren Miles Brundage.
AI og teknologi for ansiktsgjenkjenning kan også utnyttes av diktatorer og autoritære regimer.
Allerede i dag kan AI brukes til å se mønstre i enorme mengder informasjon om et lands innbyggere.
– Diktatorer vil raskere kunne identifisere mennesker som kanskje planlegger å undergrave regimet. Så vil de kunne finne og fengsle dem før de rekker å handle, heter det i rapporten.
Målrettet propaganda på sosiale medier og svært troverdige falske videoer kan brukes til å manipulere samfunnsdebatten og påvirke folks politiske holdninger. Slike metoder har fått stor oppmerksomhet det siste året, etter at de angivelig ble brukt av Russland for å hjelpe Donald Trump til å bli president i USA.
Den nye rapporten er utarbeidet av Future of Humanity Institute ved Oxford, og Centre for the Study of Existential Risk ved Cambridge.
Oxford-instituttet har tidligere advart om en enda mer dramatisk trussel knyttet til kunstig intelligens: At et dataprogram raskt kan utvikle seg til å bli langt mer intelligent enn noe menneske. I verste fall kan en hyperintelligent maskin vende seg mot menneskeheten og utslette oss.
Om dette er en reell trussel, og hvor langt inn i framtiden den eventuelt ligger, er det umulig å vite sikkert.
I den nye rapporten anbefaler forskerne flere tiltak for å begrense risikoen som AI medfører. De mener politikerne bør vurdere nye lover som kan regulere forskning og utvikling av kunstig intelligens.
NTB-DPA-AP
(©NTB)