精品国产免费福利片,一级片手机在线观看,欧美日韩国产在线一区,久久精品综合一区二区三区

家政機器人迎來(lái)高光時(shí)刻

來(lái)源:科技日報 作者:張夢(mèng)然 發(fā)表時(shí)間:2024-05-06 20:20
科技日報  作者:張夢(mèng)然  2024-05-06

誰(shuí)不想要一個(gè)可完全承擔家務(wù)的機器人呢?這也是人們對機器人技術(shù)發(fā)展的一大夢(mèng)想。

雖然機器人專(zhuān)家已經(jīng)能夠讓機器人在實(shí)驗室做一些像跑酷這樣令人印象深刻的事情,但這都是在嚴格控制的環(huán)境中精心規劃展開(kāi)的。真要讓機器人在你家中自主工作,多少還是讓人不太放心,尤其是在有兒童和寵物的家庭。而且房屋設計各有不同,房間布置、物品擺放更是千差萬(wàn)別。

在機器人專(zhuān)家中,有一個(gè)廣為認可的觀(guān)點(diǎn),稱(chēng)為“莫拉維克悖論”:對人類(lèi)來(lái)說(shuō)很難的事情,對機器來(lái)說(shuō)很容易;而對人類(lèi)來(lái)說(shuō)容易的事情,對機器來(lái)說(shuō)很難。但得益于人工智能(AI),這種情況正在改變。機器人開(kāi)始能夠完成諸如疊衣物、烹飪和卸載購物籃等任務(wù),而這些在不久前還被視為機器人幾乎不可能完成的任務(wù)。

據最新一期《麻省理工科技評論》報道,機器人技術(shù)作為一個(gè)領(lǐng)域正處于拐點(diǎn):機器人正在走出實(shí)驗室,進(jìn)入千家萬(wàn)戶(hù)。機器人技術(shù)即將迎來(lái)自己的高光時(shí)刻。

家用機器人不能太貴

過(guò)去的機器人就是昂貴的代名詞,高度復雜款價(jià)格動(dòng)輒數十萬(wàn)美元,這使得大多數家庭無(wú)法負擔。例如,PR2是家用機器人最早的迭代產(chǎn)品之一,重200公斤,售價(jià)40萬(wàn)美元。

幸好,新一代更便宜的機器人漸漸出現了。由美國初創(chuàng )公司Hello Robot開(kāi)發(fā)的一款新型家庭機器人Stretch 3,價(jià)格就合理得多,24950美元,重量為24.5公斤。它有一個(gè)小型移動(dòng)底座,一根懸掛著(zhù)攝像頭的搖桿,一個(gè)可調節手臂和一個(gè)末端帶有吸盤(pán)的夾具,可通過(guò)控制器進(jìn)行操作。

與此同時(shí),美國斯坦福大學(xué)研究團隊建立了一個(gè)名為Mobile ALOHA(低成本開(kāi)源硬件遠程操作)的系統,能讓機器人僅借助20個(gè)數據(包括人類(lèi)演示)就學(xué)會(huì )烹飪蝦。團隊使用現成組件建造出價(jià)格更合理的機器人,雖然也要數萬(wàn)美元,但之前的類(lèi)似款動(dòng)輒數十萬(wàn)美元。

AI構建“通用機器人大腦”

將這批新機器人與“前輩”區分開(kāi)來(lái)的,其實(shí)是它們的軟件。由于A(yíng)I繁榮發(fā)展,現在的技術(shù)焦點(diǎn),正在從昂貴機器人實(shí)現身體靈巧性轉向,轉變?yōu)橛蒙窠?jīng)網(wǎng)絡(luò )構建“通用機器人大腦”。

機器人專(zhuān)家正使用深度學(xué)習和神經(jīng)網(wǎng)絡(luò )來(lái)創(chuàng )建“大腦”系統,以便能在應用中從環(huán)境學(xué)習并相應調整機器人行為,而不是像傳統的精心規劃和艱苦培訓。

2023年夏天,谷歌公司推出了視覺(jué)—語(yǔ)言—行動(dòng)模型RT-2。該模型能從用于訓練的在線(xiàn)文本和圖像以及自身的交互中獲得對世界的一般理解,并把這些數據轉化為機器人操作。

豐田研究所、哥倫比亞大學(xué)和麻省理工學(xué)院團隊已借助一種稱(chēng)為模仿學(xué)習的AI學(xué)習技術(shù)以及生成式AI,快速教機器人完成許多新任務(wù)。這一方法將推動(dòng)生成式AI技術(shù)從文本、圖像和視頻領(lǐng)域擴展到機器人運動(dòng)領(lǐng)域。

從OpenAI現已關(guān)閉的機器人研究部門(mén)分拆出來(lái)的初創(chuàng )公司Covariant,則建立了一個(gè)多模態(tài)模型RFM-1,可接受文本、圖像、視頻、機器人指令的提示。生成式AI讓機器人能理解指令并生成與這些任務(wù)相關(guān)的圖像或視頻。

更多數據催生更智能機器人

GPT-4等大型AI模型的力量,在于從互聯(lián)網(wǎng)上囤積大量數據,但這并不適用于機器人,因為機器人需要專(zhuān)門(mén)為它們收集的數據。它們需要實(shí)物演示如何打開(kāi)洗衣機和冰箱、拿起盤(pán)子或折疊衣物。現在,這些數據非常稀缺,收集也需要很長(cháng)時(shí)間。

谷歌深度思維公司發(fā)起了一項名為“開(kāi)源X-Embodiment協(xié)作”的新計劃,旨在改變這種狀況。去年,該公司與34個(gè)實(shí)驗室約150名研究人員合作,從22種不同的機器人收集數據,包括Hello Robot的Stretch 3。由此產(chǎn)生的數據集于2023年10月發(fā)布,其中包括機器人的527種技能,例如采摘、推動(dòng)和移動(dòng)等。

還有一種稱(chēng)為RT-X的機器人,研究人員專(zhuān)門(mén)為其構建了兩個(gè)版本的模型,其既可在各個(gè)實(shí)驗室的計算機上本地運行,也可通過(guò)網(wǎng)絡(luò )訪(fǎng)問(wèn)。

更大的、可通過(guò)網(wǎng)絡(luò )訪(fǎng)問(wèn)的模型是用互聯(lián)網(wǎng)數據預先訓練的,以從大型語(yǔ)言和圖像模型中發(fā)展出“視覺(jué)常識”。研究人員在許多不同機器人上運行RT-X模型時(shí),就會(huì )發(fā)現,這樣的機器人去學(xué)習技能的成功率,比每個(gè)實(shí)驗室獨立開(kāi)發(fā)的系統高出50%。

總而言之,是更多的數據,催生出了更智能的機器人。(記者 張夢(mèng)然)

編輯:彭勇
返回頂部
精彩推薦