Root NationArtiklerAnalyticsSeks bud om kunstig intelligens

Seks bud om kunstig intelligens

-

De følgende år vil være præget af den hastige udvikling af kunstig intelligens-teknologier. Måske er det nødvendigt at indføre klart definerede rammer for skabelse og brug af AI? Er 6 måneders erfaring nok til at regulere en teknologi, der ikke engang har forladt laboratoriet endnu? Dette spørgsmål kommer i stigende grad fra munden på eksperter og journalister, når det kommer til kunstig intelligens. Stemmer og opfordringer til at tage skridt til at regulere kunstig intelligens - både på brugerniveau og på projektudviklingsniveau - høres oftere og oftere. Historien om sådanne appeller begyndte for ganske lang tid siden.

Den allestedsnærværende tilstedeværelse af kunstig intelligens i det digitale rum og frem for alt af modeller, der er i stand til at skabe indhold, der ikke vil adskille sig fra det, der er skabt af mennesker, fremkalder meget forskellige følelser. På den ene side har vi en gruppe entusiaster, der ser fremtiden inden for AI, og på trods af dens relativt begrænsede muligheder (fordi AI ikke tænker, og ofte bare tager information fra internettet), ikke er bange for at betro den mange opgaver . På den anden side af barrikaden står en gruppe, der udtrykker sin skepsis og bekymring over de aktuelle tendenser i udviklingen af ​​kunstig intelligens.

AI postulat

Broen mellem de to grupper er kunstig intelligens-forskere, som på den ene side nævner talrige eksempler på, hvordan kunstig intelligens har påvirket den omgivende virkelighed positivt. Samtidig forstår de, at det er for tidligt at hvile på laurbærrene, og et stort teknologispring bringer mange udfordringer og stort ansvar. Et tydeligt eksempel på denne holdning er en international gruppe af kunstig intelligens og maskinlæringsforskere ledet af Dr. Ozlem Garibay fra University of Central Florida. Den 47 sider lange publikation, skrevet af 26 videnskabsmænd fra hele verden, identificerer og beskriver seks udfordringer, som forskningsinstitutioner, virksomheder og virksomheder skal tage fat på for at gøre deres modeller (og den software, der bruger dem) sikre.

Ja, dette er et seriøst videnskabeligt arbejde med vigtige forklaringer til at forstå fremtiden for kunstig intelligens. Hvem er interesseret, kan selvstændigt læs denne videnskabelige rapport og drag dine egne konklusioner. Med enkle ord har videnskabsmænd identificeret 6 bud om kunstig intelligens. Alle AI-udviklinger og -handlinger skal være i overensstemmelse med dem, så det er sikkert for mennesker og verden.

AI postulat

I min artikel, skrevet netop på baggrund af dette videnskabelige arbejde, vil jeg forsøge at formulere de vigtigste postulater, love, ifølge hvilke kunstig intelligens skal eksistere og udvikle sig. Ja, det er min næsten frie fortolkning af videnskabsmænds konklusioner vedrørende udviklingen af ​​kunstig intelligens og et forsøg på at præsentere dem i så at sige en bibelsk version. Men det er sådan, jeg ønskede at introducere dig til dette videnskabelige arbejde af respekterede videnskabsmænd.

Også interessant: Opbygning af AI: Hvem leder løbet?

Den første lov: Menneskets velbefindende

Forskernes første postulat er at fokusere arbejdet med kunstig intelligens på menneskers velbefindende. På grund af manglen på "menneskelige værdier, sund fornuft og etik" kan kunstig intelligens handle på en måde, der vil føre til en væsentlig forringelse af menneskets velbefindende. Problemer kan være resultatet af AI's overmenneskelige evner (f.eks. hvor let AI slår mennesker - og ikke kun i skak), men også det faktum, at AI ikke tænker selv, og derfor ikke er i stand til at "filtrere" skævheder eller åbenlyse fejl.

AI Postulat

- Annonce -

Forskere bemærker, at overdreven tillid til kunstig intelligens-teknologier kan påvirke menneskers velbefindende negativt. Et samfund, der har ringe forståelse for, hvordan kunstig intelligens-algoritmer faktisk fungerer, har en tendens til at stole på det for meget, eller tværtimod har en negativ holdning til indhold genereret af en bestemt model, især chatbots. I betragtning af disse og andre faktorer opfordrer Garibays team til at sætte menneskelig velvære i centrum for fremtidige AI-menneskelige interaktioner.

Læs også: ChatGPT: en simpel brugervejledning

Den anden lov: Ansvar

Ansvarlighed er et begreb, der bliver ved med at dukke op i AI-verdenen i forbindelse med, hvad vi bruger machine learning til, og hvordan præcis AI-modeller og -algoritmer udvikles og trænes. Det internationale team lægger vægt på, at design, udvikling og implementering af kunstig intelligens udelukkende skal ske med gode intentioner.

AI Postulat

Efter deres mening bør ansvar ikke kun betragtes i en teknisk, men også i en juridisk og etisk sammenhæng. Teknologi skal betragtes ikke kun ud fra dens effektivitet, men også i sammenhæng med dens anvendelse.

"Med introduktionen af ​​avancerede maskinlæringsteknikker bliver det stadig vigtigere at forstå, hvordan en beslutning blev truffet, og hvem der er ansvarlig for den” - skriver forskerne.

Den tredje lov: Fortrolighed

Privatliv er et emne, der boomerang ind i enhver diskurs om teknologi. Især når alt bliver diskuteret i sociale netværk. Dette er dog ekstremt vigtigt for kunstig intelligens, fordi det ikke eksisterer uden en database. Og hvad er databaser?

Forskere beskriver dem som "en abstraktion af de grundlæggende byggesten, der udgør den måde, vi ser verden på." Disse blokke er normalt verdslige værdier: farver, former, teksturer, afstande, tid. Mens smal AI fokuseret på et enkelt mål, såsom den grad, som lukkeren åbner ved en given lysintensitet, bruger offentligt tilgængelige objektive data, AI i bredere applikationer (her f.eks. tekst-til-billede-modeller som Midjourney , eller sprogmodeller såsom ChatGPT ) kan bruge data om og skabt af personer. Artikler i pressen, bøger, illustrationer og fotografier offentliggjort på internettet bør også nævnes. Kunstig intelligens algoritmer har adgang til alt, fordi vi selv har givet dem det. Ellers vil han ikke vide noget og vil ikke give svar på noget spørgsmål.

AI Postulat

Brugerdata påvirker grundlæggende både de personer, som disse data indsamles om, og personerne i systemet, hvor de kunstige intelligensalgoritmer skal implementeres.

Derfor vedrører den tredje udfordring en bred forståelse af privatlivets fred og tilvejebringelsen af ​​sådanne rettigheder som retten til at forblive alene, retten til at begrænse adgangen til sig selv, retten til hemmeligholdelse af sit personlige liv eller forretning, retten til at kontrollere personlige information, det vil sige retten til at beskytte sin personlighed, individualitet og værdighed. Alt dette skal skrives ind i algoritmerne, ellers vil privatlivets fred simpelthen ikke eksistere, og AI-algoritmer kan bruges i både svigagtige ordninger og kriminelle handlinger.

Læs også: 7 sejeste måder at bruge ChatGPT på

Fjerde lov: Projektstruktur

Kunstig intelligens kan være ekstremt simpelt og enkelt formål, men i tilfælde af større modeller med en bred og multi-tasking karakter, er problemet ikke kun databeskyttelse, men også designstrukturen.

For eksempel har GPT-4, OpenAIs seneste kunstige intelligens-model, på trods af dens størrelse og indvirkning på AI-verdenen (og videre), ikke fuld offentlig dokumentation. Det vil sige, at vi ikke har en forståelse for, hvad de endelige mål er for udviklerne, hvad de ønsker at få i det endelige resultat. Derfor kan vi ikke fuldt ud vurdere de risici, der er forbundet med brugen af ​​denne AI-model. GPT-3 derimod, trænet på data fra 4chan-forummet, er en model, du absolut ikke vil interagere med. 4chan-forummet er et af de mest interessante fænomener på internettet. Dette er et eksempel på absolut, totalt anarki, som i praksis ikke er begrænset af nogen ramme. Det er her hackinggrupper som Anonymous eller LulzSec blev oprettet. Det er kilden til mange af de mest populære memes, et sted at diskutere kontroversielle emner og udgive endnu mere kontroversielle meninger. Selvom det engelsksprogede imageboard bemærker, at "indtil videre er det lovligt", er dette noget tvivlsomt, da 4chan lejlighedsvis engagerer sig i medierne, herunder racistisk, nazistisk og sexistisk indhold.

AI Postulat

- Annonce -

Professor Garibays team ønsker, at hver model af kunstig intelligens fungerer inden for en klart defineret ramme. Ikke kun på grund af velbefindende hos den person, som AI'en interagerer med, men også på grund af evnen til at vurdere de risici, der er forbundet med brugen af ​​modellen. Strukturen af ​​ethvert projekt bør omfatte respekt for forskellige kulturelle gruppers og interessenters behov, værdier og ønsker. Processen med at skabe, træne og finjustere AI bør fokusere på menneskers velvære, og slutproduktet – AI-modellen – bør fokusere på at forbedre og forbedre produktiviteten i selve det menneskelige samfund. Modeller, hvor risici ikke kan identificeres, bør have begrænset eller kontrolleret adgang. De skal ikke være en trussel mod menneskeheden, men tværtimod bidrage til udviklingen af ​​mennesket og samfundet som helhed.

Læs også: Twitter i hænderne på Elon Musk - en trussel eller "forbedring"?

Den femte lov: regeringsførelse og uafhængigt tilsyn

Kunstig intelligens-algoritmer ændrede bogstaveligt talt verden på kun et år. Bard af Google og Bing har premiere af Microsoft markant påvirket begge giganters aktier på børsen. Forresten bidrog de til væksten i disse virksomheders aktier selv på baggrund af aktier Apple. ChatGPT er begyndt at blive aktivt brugt af skoleelever, de kommunikerer med det, undersøger det og stiller spørgsmål. Det vigtigste er, at han har evnen til selv at lære, rette op på sine fejl. Kunstig intelligens er endda begyndt at virke i regeringerne i nogle lande. Det er tilfældet med Rumæniens premierminister, Nicolae Chuca hyret en virtuel en assistent, der vil informere ham om samfundets behov. Det vil sige, at kunstig intelligens spiller en stadig vigtigere rolle i vores liv.

AI

I betragtning af den stadigt stigende indbyrdes afhængighed mellem kunstig intelligens, mennesker og miljø, anser forskerne det for nødvendigt at skabe styrende organer og uafhængigt tilsyn med udviklingen heraf. Disse organer vil kontrollere hele livscyklussen for kunstig intelligens: fra idé til udvikling og implementering. Myndighederne vil korrekt definere forskellige modeller af kunstig intelligens og overveje sager relateret til kunstig intelligens og emner i det sociale liv. Det vil sige, at kunstig intelligens kan blive genstand for retssager, såvel som retssager. Selvom det selvfølgelig ikke er ham personligt, men hans udviklere.

Læs også: Alt om Neuralink: The Beginning of Cyberpunk Madness?

Den sjette lov: Samspillet mellem mennesket og kunstig intelligens

I kunstig intelligens-programmer kan alle finde noget for sig selv: generere tekst, opdage indhold i billeder, besvare spørgsmål, generere billeder, genkende personer på billeder, analysere data. Disse mange anvendelser er ikke kun et problem for folk, der forsøger at tilpasse kunstig intelligens til juridiske og etiske standarder. Mange frygter at blive fordrevet fra arbejdsmarkedet af AI-modeller. Fordi kunstig intelligens algoritmer vil være i stand til at gøre det samme hurtigere, billigere og måske endda bedre end en person. Samtidig er der mennesker, der er afhængige af AI i deres arbejde, det vil sige, at kunstig intelligens allerede er en uundværlig assistent for dem i dag.

AI

Men ud fra de undersøgelser, som forskerne henviser til, er det klart, at erstatningen af ​​mennesker med billig kunstig arbejdskraft stadig er ret langt væk. På trods af dette insisterer de allerede på behovet for at etablere et strengt hierarki af interaktion mellem mennesker og kunstig intelligens. Efter deres mening bør mennesker placeres over kunstig intelligens. Kunstig intelligens skal skabes med respekt for en persons kognitive evner under hensyntagen til hans følelser, sociale interaktioner, ideer, planlægning og interaktion med objekter. Det vil sige, at det i alle situationer er personen, der skal stå over den kunstige intelligens, kontrollere den adfærd og det indhold, som modellen skaber, og være ansvarlig for den. Med enkle ord skal selv den mest avancerede AI adlyde en person og ikke gå ud over, hvad der er tilladt, for ikke at skade dens skaber.

Læs også: Hvordan Ukraine bruger og tilpasser Starlink i krigstid

Visnovki

Ja, nogen vil sige, at forskerne ikke angav noget vigtigt og nyt i deres rapport. Alle har talt om dette i lang tid. Men allerede nu er det nødvendigt at sætte AI ind i nogle rammer af love. At række ud efter GPT-4 er som at række i blinde efter en kniv. De skjuler nøgleoplysninger for os. Alle udviklinger inden for kunstig intelligens, og i særdeleshed ChatGPT-projektet fra Open AI, minder mig ofte om at opdrage et lille barn. Nogle gange ser det ud til, at dette er et barn af fremmed oprindelse. Ja, en udlænding, men han er stadig et barn, der lærer, laver fejl, nogle gange opfører sig upassende, er irritabel, skændes med sine forældre. Selvom det vokser og udvikler sig meget hurtigt.

AI

Menneskeheden følger måske ikke med sin udvikling, og tingene kan komme ud af kontrol. Derfor er menneskeheden allerede nødt til at forstå, hvorfor vi udvikler alt dette, at kende de endelige mål, at være "ansvarlige forældre", for ellers kan "barnet" simpelthen ødelægge sine "forældre".

Læs også: 

Yuri Svitlyk
Yuri Svitlyk
Søn af Karpaterne, uanerkendt geni af matematik, "advokat"Microsoft, praktisk altruist, venstre-højre
- Annonce -
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer