Root NationBalitabalita sa ITMaaaring mapanganib ang code na isinulat ng artificial intelligence

Maaaring mapanganib ang code na isinulat ng artificial intelligence

-

Ang mga algorithm sa pag-aaral ng machine ay ang lahat ng galit ngayon, dahil ginagamit ang mga ito upang lumikha ng anumang uri ng "orihinal" na nilalaman pagkatapos ng pagsasanay sa malalaking pre-existing na set ng data. Gayunpaman, ang artificial intelligence (AI) na pagbuo ng code ay maaaring magdulot ng isang tunay na problema para sa seguridad ng software sa hinaharap.

Nangangako ang mga AI system tulad ng GitHub Copilot na gagawing mas madali ang buhay ng mga programmer sa pamamagitan ng paggawa ng buong tipak ng "bagong" code batay sa data ng text sa natural na wika at dati nang konteksto. Ngunit ang mga algorithm ng pagbuo ng code ay maaari ring magpakilala ng isang kadahilanan ng kawalan ng kapanatagan, bilang isang bagong pag-aaral na kinasasangkutan ng ilang mga developer kamakailan.

Sa partikular na pagtingin sa Codex, ang artificial intelligence platform na binuo ng OpenAI na siya ring code engine sa likod ng nabanggit na GitHub Copilot, 47 iba't ibang developer ang lumahok sa pag-aaral. Mula sa mga mag-aaral hanggang sa mga may karanasang propesyonal, hinamon silang gumamit ng Codex upang malutas ang mga problemang nauugnay sa seguridad sa Python, JavaScript, C, at iba pang mga high-level na programming language.

Ang code na isinulat ng artificial intelligence ay maaaring likas na mapanganib

Napansin ng mga mananaliksik na kapag nagkaroon ng access ang mga programmer sa AI ng Codex, mas malamang na mali o hindi secure ang resultang code kumpara sa mga "manual" na solusyon na idinisenyo ng isang control group. Bilang karagdagan, ang mga programmer na may mga solusyon na pinapagana ng AI ay mas malamang na sabihin na ang kanilang hindi protektadong code ay ligtas, kumpara sa nabanggit na control group.

Sinabi ni Ale Perry, isang nagtapos na estudyante sa Stanford University at nangunguna sa co-author ng pag-aaral, na "kasalukuyang hindi maaaring palitan ng mga sistema ng pagbuo ng code ang mga developer ng tao." Ayon sa kanya, ang mga developer ay maaaring gumamit ng mga artificial intelligence tool upang magsagawa ng mga gawain sa labas ng kanilang kakayahan o upang mapabilis ang proseso ng programming kung saan mayroon na silang ilang mga kasanayan. Ayon sa may-akda ng pag-aaral, dapat silang mag-alala tungkol sa pareho at palaging suriin ang nabuong code.

Ayon kay Megha Srivastava, isang nagtapos na estudyante sa Stanford at ang pangalawang co-author ng pag-aaral, ang Codex ay hindi inutil: sa kabila ng mga pagkukulang ng "pipi" AI, ang mga sistema ng pagbuo ng code ay maaaring maging kapaki-pakinabang kapag ginamit para sa mga gawaing mababa ang panganib. Bilang karagdagan, ang mga programmer na lumahok sa pag-aaral ay walang gaanong karanasan sa mga usapin sa seguridad, na maaaring makatulong sa pagtukoy ng mahina o mapanganib na code, sabi ni Srivastava.

Ang code na isinulat ng AI ay maaaring likas na mapanganib

Ang mga algorithm ng AI ay maaari ding i-tweake para mapahusay ang mga suhestyon sa coding, at ang mga kumpanyang bumubuo ng sarili nilang mga system ay makakakuha ng mas mahuhusay na solusyon gamit ang isang modelo na bumubuo ng code na mas angkop sa sarili nilang mga kasanayan sa seguridad. Ayon sa mga may-akda ng pag-aaral, ang teknolohiya ng pagbuo ng code ay isang "kapana-panabik" na pag-unlad at maraming tao ang sabik na gamitin ito. Kaya lang, marami pa ring kailangang gawin sa paghahanap ng mga tamang solusyon para matugunan ang mga pagkukulang ng AI.

Matutulungan mo ang Ukraine na labanan ang mga mananakop na Ruso. Ang pinakamahusay na paraan upang gawin ito ay ang mag-abuloy ng mga pondo sa Armed Forces of Ukraine sa pamamagitan ng Savelife o sa pamamagitan ng opisyal na pahina NBU.

Kawili-wili din:

Jerelotechspot
Mag-sign up
Abisuhan ang tungkol sa
bisita

0 Comments
Naka-embed na Mga Review
Tingnan ang lahat ng komento
Iba pang mga artikulo
Mag-subscribe para sa mga update
Sikat ngayon