Root NationNyhederIT nyhederDet vil være umuligt at styre en super intelligent kunstig intelligens

Det vil være umuligt at styre en super intelligent kunstig intelligens

-

Ideen om, at kunstig intelligens vælter menneskeheden, har været diskuteret i årtier, og i januar 2021 afgav videnskabsmænd deres dom om, hvorvidt vi kunne kontrollere en computersuperintelligens på højt niveau. Svar? Næsten bestemt ikke.

Problemet er, at at kontrollere et supersind langt ud over menneskelig forståelse ville kræve en simulering af det supersind, som vi kunne analysere. Men hvis vi ikke er i stand til at forstå det, er det umuligt at lave sådan en simulering.

Regler som "gør ingen skade på mennesker" kan ikke etableres, medmindre vi forstår, hvilke scenarier kunstig intelligens (AI) vil komme op med, mener forfatterne af et 2021-papir. Så snart computersystemet fungerer på et niveau, der overstiger vores programmørers evner, vil vi ikke længere være i stand til at sætte grænser.

Kunstig intelligens

"Superintelligens er et fundamentalt andet problem end dem, der normalt studeres under banneret 'robot-etik'," skriver forskerne. "Dette skyldes, at supersind er mangefacetteret og derfor potentielt er i stand til at mobilisere en række ressourcer for at nå mål, der er potentielt uoverskuelige for mennesker, endsige kontrollerbare."

En del af holdets ræsonnement kommer fra stop problemer, foreslået af Alan Turing i 1936. Udfordringen er at finde ud af, om computerprogrammet vil komme til en konklusion og svare (og stoppe) eller bare blive hængende for evigt og prøve at finde svaret.

Som Turing beviste med hjælp intelligent matematik, selvom vi måske ved dette for nogle specifikke programmer, er det logisk umuligt at finde en måde, der vil tillade os at vide dette for hvert potentielt program, der nogensinde kunne blive skrevet. Dette bringer os tilbage til AI, som i en superintelligent tilstand kunne gemme alle mulige computerprogrammer i sin hukommelse på samme tid.

Også interessant:

Ethvert program, der for eksempel er skrevet for at forhindre en AI i at skade mennesker og ødelægge verden kan eller kan ikke nå en konklusion (og stoppe) - det er matematisk umuligt at være helt sikker på begge måder, hvilket betyder, at det ikke kan holdes tilbage. "Det gør dybest set afskrækkelsesalgoritmen ubrugelig," sagde datalog Iyad Rahwan fra Max Planck Institute for Human Development i Tyskland i januar.

Et alternativ til at undervise i AI-etik og forbud mod at ødelægge verden, som ingen algoritme kan være helt sikker på, siger forskerne, er at begrænse supersindets muligheder. Det kan for eksempel være afskåret fra en del af internettet eller visse netværk.

Forfatterne af en nylig undersøgelse afviser også denne idé, idet de tror, ​​at den vil begrænse omfanget af kunstig intelligens - de siger, hvis vi ikke skal bruge den til at løse problemer ud over menneskelige evner, hvorfor så overhovedet skabe den?

Kunstig intelligens

Hvis vi skal fremme kunstig intelligens, ved vi måske ikke engang, hvornår en superintelligens dukker op, uden for vores kontrol, så uudgrundelig er det. Det betyder, at vi skal begynde at stille seriøse spørgsmål om, hvor vi er på vej hen.

"En superintelligent maskine, der kører verden, lyder som science fiction," siger datalog Manuel Kebrian fra Max Planck Institute for Human Development. Men der er allerede maskiner, der selvstændigt udfører nogle vigtige opgaver, mens programmører ikke helt forstår, hvordan de lærte dette.

Derfor opstår spørgsmålet, om det på et tidspunkt kan blive ukontrollerbart og farligt for menneskeheden...

Læs også:

Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer