Root NationČlankianalitikaŠest zapovedi umetne inteligence

Šest zapovedi umetne inteligence

-

Naslednja leta bo zaznamoval hiter razvoj tehnologij umetne inteligence. Mogoče je treba uvesti jasno določene okvire za ustvarjanje in uporabo AI? Je 6 mesecev izkušenj dovolj za regulacijo tehnologije, ki sploh še ni zapustila laboratorija? To vprašanje vse pogosteje prihaja iz ust strokovnjakov in novinarjev, ko je govora o umetni inteligenci. Vse pogosteje se slišijo glasovi in ​​pozivi k ukrepom za regulacijo umetne inteligence – tako na uporabniški ravni kot na ravni razvoja projektov. Zgodovina takih pritožb se je začela že dolgo nazaj.

Vseprisotna prisotnost umetne inteligence v digitalnem prostoru in predvsem modelov, ki so sposobni ustvarjati vsebine, ki se ne bodo razlikovale od tistih, ki jih ustvarja človek, vzbuja zelo različna čustva. Na eni strani imamo skupino entuziastov, ki vidijo prihodnost v umetni inteligenci in se ji kljub razmeroma omejenim zmožnostim (ker umetna inteligenca ne razmišlja in pogosto samo črpa informacije iz interneta) ne bojijo zaupati številnih nalog. . Na drugi strani barikade je skupina, ki izraža skepso in zaskrbljenost glede trenutnih trendov v razvoju umetne inteligence.

AI postulat

Most med obema skupinama so raziskovalci umetne inteligence, ki na eni strani navajajo številne primere, kako je umetna inteligenca pozitivno vplivala na okolico. Hkrati se zavedajo, da je še prezgodaj zaspati na lovorikah, ogromen tehnološki preskok pa prinaša številne izzive in veliko odgovornost. Jasen primer tega odnosa je mednarodna skupina raziskovalcev umetne inteligence in strojnega učenja, ki jo vodi dr. Ozlem Garibay z Univerze Centralne Floride. Publikacija na 47 straneh, ki jo je napisalo 26 znanstvenikov z vsega sveta, identificira in opisuje šest izzivov, s katerimi se morajo soočiti raziskovalne ustanove, podjetja in korporacije, da bodo njihovi modeli (in programska oprema, ki jih uporablja) varni.

Da, to je resno znanstveno delo s pomembnimi razlagami za razumevanje prihodnosti umetne inteligence. Kogar zanima, lahko samostojno preberite to znanstveno poročilo in naredite svoje zaključke. Preprosto povedano, znanstveniki so identificirali 6 zapovedi umetne inteligence. Ves razvoj in dejanja umetne inteligence morajo biti v skladu z njimi, tako da je varna za ljudi in svet.

AI postulat

V svojem članku, napisanem ravno na podlagi tega znanstvenega dela, bom poskušal oblikovati glavne postulate, zakonitosti, po katerih naj bi obstajala in se razvijala umetna inteligenca. Ja, to je moja skoraj svobodna interpretacija zaključkov znanstvenikov o razvoju umetne inteligence in poskus njihove predstavitve v tako rekoč svetopisemski različici. Tako pa sem vam želel predstaviti to znanstveno delo cenjenih znanstvenikov.

Zanimivo tudi: Gradnja umetne inteligence: kdo vodi v dirki?

Prvi zakon: Človekova blaginja

Prvi postulat raziskovalcev je usmeriti delo umetne inteligence v človekovo dobrobit. Zaradi pomanjkanja »človeških vrednot, zdrave pameti in etike« lahko umetna inteligenca deluje tako, da bo povzročilo občutno poslabšanje človekovega počutja. Težave so lahko posledica nadčloveških sposobnosti umetne inteligence (na primer, kako zlahka umetna inteligenca premaga ljudi – pa ne le pri šahu), pa tudi dejstva, da umetna inteligenca ne razmišlja sama, zato ni sposobna »filtrirati« pristranskosti oz. očitne napake.

AI postulat

- Oglas -

Raziskovalci ugotavljajo, da lahko pretirano zaupanje v tehnologije umetne inteligence negativno vpliva na počutje ljudi. Družba, ki nima dovolj razumevanja o tem, kako algoritmi umetne inteligence dejansko delujejo, ji ponavadi preveč zaupa ali ima, nasprotno, negativen odnos do vsebin, ki jih generira določen model, zlasti chatboti. Ob upoštevanju teh in drugih dejavnikov Garibayeva ekipa poziva k postavitvi dobrega počutja ljudi v središče prihodnjih interakcij AI-človeka.

Preberite tudi: ChatGPT: preprost uporabniški priročnik

Drugi zakon: odgovornost

Odgovornost je izraz, ki se vedno znova pojavlja v svetu umetne inteligence v kontekstu tega, za kaj uporabljamo strojno učenje in kako natančno se razvijajo in usposabljajo modeli in algoritmi umetne inteligence. Mednarodna ekipa poudarja, da je treba načrtovanje, razvoj in implementacijo umetne inteligence izvajati izključno z dobrimi nameni.

AI postulat

Po njihovem mnenju je treba odgovornost obravnavati ne le v tehničnem, ampak tudi v pravnem in etičnem kontekstu. Tehnologijo je treba obravnavati ne le z vidika njene učinkovitosti, temveč tudi v kontekstu njene uporabe.

"Z uvedbo naprednih tehnik strojnega učenja postaja vse bolj pomembno razumeti, kako je bila odločitev sprejeta in kdo je zanjo odgovoren.” - pišejo raziskovalci.

Tretji zakon: Zaupnost

Zasebnost je tema, ki kot bumerang vstopi v vsak diskurz o tehnologiji. Še posebej, ko se o vsem razpravlja na družbenih omrežjih. Je pa to izjemno pomembno za umetno inteligenco, saj brez podatkovne baze ne obstaja. In kaj so baze podatkov?

Znanstveniki jih opisujejo kot "abstrakcijo osnovnih gradnikov, ki sestavljajo naš pogled na svet." Ti bloki so običajno vsakdanje vrednosti: barve, oblike, teksture, razdalje, čas. Medtem ko ozka umetna inteligenca, osredotočena na en sam cilj, kot je stopnja, do katere se zaklop odpre pri dani jakosti svetlobe, uporablja javno dostopne objektivne podatke, umetna inteligenca v širših aplikacijah (tu na primer modeli besedila v sliko, kot je Midjourney, ali jezikovni modeli, kot je ChatGPT ) lahko uporabljajo podatke o ljudeh in jih ustvarijo. Omeniti velja tudi članke v tisku, knjige, ilustracije in fotografije, objavljene na internetu. Algoritmi umetne inteligence imajo dostop do vsega, saj smo jim to dali sami. V nasprotnem primeru ne bo vedel ničesar in ne bo odgovoril na nobeno vprašanje.

AI postulat

Uporabniški podatki bistveno vplivajo tako na ljudi, o katerih se ti podatki zbirajo, kot na ljudi v sistemu, kjer bodo implementirani algoritmi umetne inteligence.

Zato se tretji izziv nanaša na široko razumevanje zasebnosti in zagotavljanje pravic, kot so pravica ostati sam, pravica do omejitve dostopa do sebe, pravica do tajnosti osebnega življenja ali poslovanja, pravica do nadzora osebnih informacije, to je pravica do varstva osebnosti, individualnosti in dostojanstva. Vse to mora biti zapisano v algoritme, sicer zasebnosti preprosto ne bo, algoritmi AI pa se lahko uporabljajo v goljufivih shemah in tudi kaznivih dejanjih.

Preberite tudi: 7 najbolj kul načinov uporabe ChatGPT

Četrti zakon: Struktura projekta

Umetna inteligenca je lahko izjemno enostavna in enonamenska, a pri večjih modelih s široko in večopravilno naravo težava ni le v zasebnosti podatkov, ampak tudi v konstrukcijski strukturi.

Na primer, GPT-4, najnovejši model umetne inteligence OpenAI, kljub svoji velikosti in vplivu na svet umetne inteligence (in širše) nima popolnoma javne dokumentacije. To pomeni, da nimamo razumevanja, kakšni so končni cilji razvijalcev, kaj želijo dobiti v končnem rezultatu. Zato ne moremo v celoti oceniti tveganj, povezanih z uporabo tega modela AI. GPT-3, na drugi strani, usposobljen na podatkih s foruma 4chan, je model, s katerim zagotovo ne želite komunicirati. Forum 4chan je eden najzanimivejših pojavov na internetu. To je primer absolutne, totalne anarhije, ki v praksi ni omejena z nobenim okvirom. Tu so nastale hekerske skupine, kot sta Anonymous ali LulzSec. Je vir številnih najbolj priljubljenih memov, mesto za razprave o kontroverznih temah in objavo še bolj kontroverznih mnenj. Čeprav slikovna tabla v angleškem jeziku ugotavlja, da je "zaenkrat zakonito", je to nekoliko vprašljivo, glede na to, da se 4chan občasno ukvarja z mediji, vključno z rasistično, nacistično in seksistično vsebino.

AI postulat

- Oglas -

Ekipa profesorja Garibaya želi, da vsak model umetne inteligence deluje v jasno določenem okviru. Ne le zaradi dobrega počutja osebe, s katero AI komunicira, ampak tudi zaradi sposobnosti ocene tveganj, povezanih z uporabo modela. Struktura vsakega projekta mora vključevati spoštovanje potreb, vrednot in želja različnih kulturnih skupin in deležnikov. Proces ustvarjanja, usposabljanja in natančnega prilagajanja umetne inteligence bi moral biti osredotočen na dobro počutje ljudi, končni izdelek – model umetne inteligence – pa bi moral biti osredotočen na krepitev in izboljšanje produktivnosti same človeške skupnosti. Modeli, pri katerih tveganj ni mogoče prepoznati, morajo imeti omejen ali nadzorovan dostop. Ne smejo biti grožnja človeštvu, ampak nasprotno, prispevati k razvoju človeka in družbe kot celote.

Preberite tudi: Twitter v rokah Elona Muska – grožnja ali "izboljšanje"?

Peti zakon: upravljanje in neodvisni nadzor

Algoritmi umetne inteligence so v samo enem letu dobesedno spremenili svet. Bard pri Googlu in Bing premieri pri Microsoft močno vplivala na delnice obeh borznih velikanov. Mimogrede, prispevali so k rasti delnic teh podjetij tudi v ozadju delnic Apple. ChatGPT so začeli aktivno uporabljati šolarji, z njim komunicirajo, ga pregledujejo in postavljajo vprašanja. Najpomembneje je, da ima sposobnost samoučenja, popravljanja svojih napak. Umetna inteligenca začenja delovati celo v vladah nekaterih držav. To je primer predsednika romunske vlade Nicolaeja Chuce najel virtualnega pomočnika, ki ga bo informiral o potrebah družbe. Se pravi, da ima umetna inteligenca vse pomembnejšo vlogo v naših življenjih.

AI

Glede na vedno večjo soodvisnost med umetno inteligenco, človekom in okoljem se znanstvenikom zdi nujno oblikovanje organov upravljanja in neodvisnega nadzora nad njenim razvojem. Ti organi bodo nadzorovali celoten življenjski cikel umetne inteligence: od ideje do razvoja in izvedbe. Oblasti bodo ustrezno definirale različne modele umetne inteligence in obravnavale primere, povezane z umetno inteligenco in subjekti družbenega življenja. Se pravi, umetna inteligenca lahko postane predmet sodnih sporov, pa tudi tožb. Čeprav seveda ne on osebno, ampak njegovi razvijalci.

Preberite tudi: Vse o Neuralinku: Začetek kiberpunkovske norosti?

Šesti zakon: Interakcija človeka in umetne inteligence

V programih umetne inteligence lahko vsakdo najde nekaj zase: generira besedilo, zazna vsebino v slikah, odgovarja na vprašanja, generira slike, prepozna ljudi na fotografijah, analizira podatke. Te večkratne uporabe ne skrbijo samo ljudi, ki poskušajo umetno inteligenco prilagoditi pravnim in etičnim standardom. Mnogi se bojijo, da jih bodo modeli umetne inteligence izrinili s trga dela. Ker bodo algoritmi umetne inteligence zmogli enako narediti hitreje, ceneje in morda celo bolje kot človek. Hkrati pa obstajajo ljudje, ki se pri svojem delu zanašajo na AI, tj. umetna inteligenca jim je že danes nepogrešljiv pomočnik.

AI

Toda iz študij, na katere se sklicujejo znanstveniki, je jasno, da je zamenjava ljudi s poceni umetno delovno silo še precej daleč. Kljub temu že vztrajajo pri nujnosti vzpostavitve stroge hierarhije interakcije med človekom in umetno inteligenco. Po njihovem mnenju je treba človeka postaviti nad umetno inteligenco. Umetna inteligenca mora biti ustvarjena ob spoštovanju kognitivnih sposobnosti človeka, ob upoštevanju njegovih čustev, socialnih interakcij, idej, načrtovanja in interakcije s predmeti. Se pravi, v vseh situacijah je oseba tista, ki mora stati nad umetno inteligenco, nadzorovati vedenje in vsebino, ki jo ustvarja model, ter biti zanjo odgovoren. Z enostavnimi besedami, tudi najnaprednejši AI mora ubogati človeka in ne preseči dovoljenega, da ne bi škodoval svojemu ustvarjalcu.

Preberite tudi: Kako Ukrajina uporablja in prilagaja Starlink med vojno

Visnovki

Da, nekdo bo rekel, da znanstveniki v svojem poročilu niso navedli nič pomembnega in novega. Vsi že dolgo govorijo o tem. A že zdaj je treba AI postaviti v nek okvir zakonov. Posegati po GPT-4 je kot slepo segati po nožu. Pred nami skrivajo ključne informacije. Ves razvoj umetne inteligence, še posebej projekt ChatGPT iz Open AI, me pogosto spominja na vzgojo majhnega otroka. Včasih se zdi, da je to otrok tujega izvora. Ja, vesoljček, ampak je še vedno otrok, ki se uči, dela napake, včasih se obnaša neprimerno, je razdražljiv, se prepira s starši. Čeprav zelo hitro raste in se razvija.

AI

Človeštvo morda ne bo dohajalo svojega razvoja in stvari lahko uidejo izpod nadzora. Zato mora človeštvo že razumeti, zakaj vse to razvijamo, poznati končne cilje, biti »odgovorni starši«, saj drugače lahko »otrok« preprosto uniči svoje »starše«.

Preberite tudi: 

Yuri Svitlyk
Yuri Svitlyk
Sin Karpatov, nepriznani genij matematike, "odvetnik"Microsoft, praktični altruist, levo-desno
- Oglas -
Prijavite se
Obvesti o
gost

0 Komentarji
Vdelana mnenja
Prikaži vse komentarje