Root NationBalitabalita sa ITHinihiling ng mga eksperto sa teknolohiya na ihinto ang mga eksperimento sa AI

Hinihiling ng mga eksperto sa teknolohiya na ihinto ang mga eksperimento sa AI

-

Pumirma na ang mga pinuno ng teknolohiya at mga kilalang AI researcher bukas na liham, na nananawagan sa mga AI lab at kumpanya na "agad na suspindihin" ang kanilang trabaho.

Ang mga lumagda, kasama sina Steve Wozniak at Elon Musk, ay sumasang-ayon na ang mga panganib ay nangangailangan ng hindi bababa sa anim na buwang pahinga mula sa paggawa ng mga teknolohiyang lampas sa saklaw. GPT-4. Ito ay upang makuha ang kagalakan at kasiyahan mula sa mga AI system na umiiral ngayon, at upang payagan ang mga tao na umangkop sa kanila at makita na sila ay kapaki-pakinabang.

Nanawagan ang mga pinuno at eksperto sa teknolohiya na ihinto ang mga eksperimento sa AI

Idinagdag ng liham na ang pag-iingat at pag-iingat ay kailangan upang matiyak ang kaligtasan ng mga sistema ng AI, ngunit hindi sila pinapansin. Ang sanggunian sa GPT-4, isang bagong modelo ng OpenAI na maaaring tumugon sa pamamagitan ng teksto sa nakasulat o visual na mga mensahe, ay dumarating habang ang mga kumpanya ay naghahabol na bumuo ng mga sopistikadong sistema ng chat gamit ang teknolohiya. Halimbawa, Microsoft kamakailan ay nakumpirma na ang na-update nitong Bing search engine ay tumatakbo sa modelong GPT-4 sa loob ng mahigit 7 linggo, at kamakailan ay opisyal na ipinakilala ng Google Bard – sariling generative artificial intelligence system batay sa LaMDA.

Ang mga alalahanin tungkol sa AI ay umiral nang mahabang panahon, ngunit ang karera upang gamitin ang pinaka-advanced na teknolohiya ay maliwanag artipisyal na katalinuhan nakakaalarma na ang una. "Sa nakalipas na mga buwan, ang mga AI lab ay nasangkot sa isang hindi nakokontrol na karera upang bumuo at magpatupad ng mas malakas na digital na pag-iisip na walang sinuman - kahit na ang kanilang mga may-akda - ay maaaring maunawaan, mahulaan, o mapagkakatiwalaang kontrolin," sabi ng liham.

Nanawagan ang mga pinuno at eksperto sa teknolohiya na ihinto ang mga eksperimento sa AI

Ang liham ay na-publish ng non-profit na organisasyon na Future of Life Institute (FLI), na gumagana upang mabawasan ang mga global na sakuna at umiiral na mga panganib at maling paggamit ng mga bagong teknolohiya, lalo na ang AI. Dati, nag-donate si Musk ng $10 milyon sa FLI para sa pananaliksik sa seguridad ng AI. Bilang karagdagan sa kanya at kay Wozniak, kasama sa mga lumagda ang ilang pinuno ng mundo sa larangan ng AI, tulad ng Center for AI at Digital Policy President Mark Rothenberg, MIT physicist at FLI President Max Tegmark, at may-akda Yuval Noah Harari.

Si Harari ay nag-co-author din ng isang op-ed sa New York Times noong nakaraang linggo na babala sa mga panganib na nauugnay sa artipisyal na katalinuhan, kung saan ang mga tagapagtatag ng Center for Humane Technologies at iba pang mga lumagda ng bukas na liham, sina Tristan Harris at Aza Raskin, ay nagtrabaho sa kanya.

Ang tawag ay kasunod ng isang survey noong nakaraang taon ng higit sa 700 machine learning researcher kung saan halos kalahati ang nagsabing mayroong humigit-kumulang 10% na posibilidad ng "lubhang masamang kahihinatnan" mula sa AI, kabilang ang pagkalipol ng tao. Kapag tinanong tungkol sa seguridad sa AI research, 68% ng mga respondent ang nagsabing higit pa o higit pa ang kailangang gawin.

Basahin din:

Jereloengadget
Mag-sign up
Abisuhan ang tungkol sa
bisita

0 Comments
Naka-embed na Mga Review
Tingnan ang lahat ng komento