Root NationBalitabalita sa ITIpinakita ng Figure AI ang mga bagong kasanayan ng humanoid AI robot nito

Ipinakita ng Figure AI ang mga bagong kasanayan ng humanoid AI robot nito

-

Ang pag-unlad ng mga humanoid robot ay lumipat sa isang mabagal na bilis para sa mas mahusay na bahagi ng dalawang dekada, ngunit kamakailan lamang ay nakakita kami ng higit pa at higit pang mga tagumpay sa larangang ito. Tulad ng isinulat namin kamakailan, isang AI robot ang ipinakita sa MWC 2024 America, at isa pang pag-unlad, Unitree H1, sinira ang record ng bilis sa mga humanoid robot. At ngayon ang isang kamangha-manghang resulta ng pakikipagtulungan sa pagitan ng mga kumpanya ng Figure AI at OpenAI ay lumitaw sa Internet - isang nakamamanghang video ng isang humanoid robot na maaari na ngayong makipag-usap sa mga tao.

Ipinakilala ng Figure AI at OpenAI ang isang bagong humanoid robot na may AI

Ang Startup Figure AI ay naglabas ng isang video na nagpapakita ng Figure 01 robot na nagtatrabaho sa bagong Visual Language Model (VLM). Sa loob nito, ang Figure 01 ay nakatayo sa isang mesa kung saan mayroong isang plato, isang mansanas at isang tasa. May dryer sa kaliwa. At sa tanong ng isang tao, kung ano ang nakikita ng robot sa harap niya, sinasagot niya nang detalyado ang lahat ng bagay na nakahiga sa mesa.

At pagkatapos ay nagtanong ang lalaki kung maaari siyang kumain ng isang bagay, at ang robot ay sumagot: "Siyempre", at pagkatapos ay may isang matikas na makinis na paggalaw ay kinuha niya ang mansanas at iniabot ito sa lalaki. Pagkatapos nito ay dumating ang isa pang nakamamanghang demonstrasyon - isang lalaki ang nagbuhos ng gusot na basura mula sa isang basket sa harap ng Figure 01 at tinanong ang robot na ipaliwanag kung bakit niya ginawa ito, at sa parehong oras ay kinokolekta ang basura sa basket. At ipinaliwanag niya ang kanyang "iisip" habang ibinabalik ang papel sa basurahan. "Kaya binigyan kita ng isang mansanas dahil ito lamang ang nakakain na bagay na maaari kong ibigay sa iyo mula sa mesa," sabi ng robot.

Ipinaliwanag ng mga kinatawan ng kumpanya na ang Figure 01 ay gumagamit ng isang pre-trained na multimodal na modelo OpenAI, VLM, upang maunawaan ang mga larawan at teksto, at umaasa sa mga voice prompt upang makabuo ng mga tugon nito. Ito ay iba sa, sabihin nating, OpenAI's GPT-4, na nakatutok sa mga nakasulat na senyas.

Ginagamit din nito ang tinatawag ng kumpanya na "natutunan ang mababang antas ng pagmamanipula ng bimanual." Ang system ay nag-coordinate ng tumpak na pagkakalibrate ng imahe (pababa sa antas ng pixel) kasama ang neural network nito para sa motion control. "Ang mga network na ito ay tumatanggap ng mga larawan sa 10 Hz at bumubuo ng 24-DOF na mga aksyon (wrist poses at finger joint angle) sa 200 Hz," sabi ng Figure AI sa isang pahayag.

Sinasabi ng kumpanya na ang bawat pag-uugali sa video ay batay sa pag-aaral ng system, kaya walang sinuman sa likod ng mga eksena ang kumukuha ng mga string ng Figure 01. Siyempre, mayroong isang nuance - hindi alam kung gaano karaming beses na dumaan ang robot sa pamamaraang ito. Marahil ito ay ang ika-XNUMX beses, na nagpapaliwanag ng kanyang tumpak na mga paggalaw. Ngunit sa anumang kaso, ang tagumpay na ito ay mukhang kamangha-manghang at medyo hindi kapani-paniwala.

Basahin din:

Jerelotechradar
Mag-sign up
Abisuhan ang tungkol sa
bisita

0 Comments
Naka-embed na Mga Review
Tingnan ang lahat ng komento