Root NationNoviceIT noviceKoda, ki jo je napisala umetna inteligenca, je lahko nevarna

Koda, ki jo je napisala umetna inteligenca, je lahko nevarna

-

Algoritmi strojnega učenja so trenutno v modi, saj se uporabljajo za ustvarjanje kakršne koli "izvirne" vsebine po usposabljanju na ogromnih že obstoječih nizih podatkov. Vendar bi lahko koda, ki ustvarja umetno inteligenco (AI), v prihodnosti predstavljala resnično težavo za varnost programske opreme.

Sistemi umetne inteligence, kot je GitHub Copilot, obljubljajo, da bodo programerjem olajšali življenje z ustvarjanjem celih delov "nove" kode, ki temelji na besedilnih podatkih v naravnem jeziku in že obstoječem kontekstu. Toda algoritmi za ustvarjanje kode lahko povzročijo tudi dejavnik negotovosti, kot je nedavno ugotovila nova študija, ki je vključevala več razvijalcev.

Če pogledamo posebej Codex, platformo umetne inteligence, ki jo je razvil OpenAI in je tudi kodni mehanizem za zgoraj omenjenim GitHub Copilot, je v študiji sodelovalo 47 različnih razvijalcev. Od študentov do izkušenih strokovnjakov so bili postavljeni pred izziv uporabe Codexa za reševanje težav, povezanih z varnostjo, v Pythonu, JavaScriptu, C in drugih programskih jezikih na visoki ravni.

Koda, ki jo je napisala umetna inteligenca, je lahko sama po sebi nevarna

Raziskovalci so ugotovili, da je bilo, ko so imeli programerji dostop do Codexovega umetne inteligence, večja verjetnost, da bo nastala koda nepravilna ali nezanesljiva v primerjavi z "ročnimi" rešitvami, ki jih je oblikovala kontrolna skupina. Poleg tega so programerji z rešitvami, ki jih poganja AI, pogosteje rekli, da je njihova nezaščitena koda varna, v primerjavi z zgoraj omenjeno kontrolno skupino.

Ale Perry, podiplomski študent na univerzi Stanford in glavni soavtor študije, je dejal, da "sistemi za ustvarjanje kode trenutno ne morejo nadomestiti človeških razvijalcev." Po njegovih besedah ​​lahko razvijalci z orodji umetne inteligence opravljajo naloge izven svoje pristojnosti ali pa pospešijo proces programiranja, v katerem že imajo določena znanja. Po mnenju avtorja študije bi morali biti zaskrbljeni zaradi obojega in vedno preveriti ustvarjeno kodo.

Po besedah ​​Meghe Srivastave, podiplomske študentke na Stanfordu in druge soavtorice študije, Codex ni neuporaben: kljub pomanjkljivostim "neumne" umetne inteligence so lahko sistemi za ustvarjanje kode uporabni, če se uporabljajo za naloge z nizkim tveganjem. Poleg tega programerji, ki so sodelovali v študiji, niso imeli veliko izkušenj z varnostnimi zadevami, kar bi lahko pomagalo pri prepoznavanju ranljive ali nevarne kode, je dejal Srivastava.

Koda, ki jo je napisal AI, je lahko sama po sebi nevarna

Algoritme umetne inteligence je mogoče prilagoditi tudi za izboljšanje predlogov kodiranja, podjetja, ki razvijajo lastne sisteme, pa lahko dobijo boljše rešitve z modelom, ki ustvarja kodo, ki je bolj prilagojena njihovim lastnim varnostnim praksam. Po mnenju avtorjev študije je tehnologija generiranja kode "razburljiv" razvoj in mnogi ljudje jo želijo uporabljati. Gre le za to, da nas čaka še veliko dela pri iskanju pravih rešitev za odpravo pomanjkljivosti umetne inteligence.

Lahko pomagate Ukrajini v boju proti ruskim okupatorjem. Najboljši način za to je donacija sredstev oboroženim silam Ukrajine prek Savelife ali preko uradne strani NBU.

Zanimivo tudi:

Jerelotechspot
Prijavite se
Obvesti o
gost

0 Komentarji
Vdelana mnenja
Prikaži vse komentarje
Drugi članki
Naročite se na posodobitve
Popularno zdaj