グーグル ロボット
Google のDeepMindは、 ロボット が特別な訓練無しに新しいタスクを実行できるようにする、世界初の視覚・言語・行動(VLA)モデル「Robotics Transformer 2(RT-2)」を発表した。 言語モデルがウェブスケールのデータから一般的なアイデアや概念を学習するのと同じように、RT-2 もウェブ上のテキストや画像を使って現実世界のさまざまな概念を理解し、その知識をロボットの動作のための一般化された命令に変換する。 この技術が改善されれば、文脈を認識し、適応可能なロボットが実現し、異なる状況や環境で異なるタスクをこなすことができるようになる。 RT-2の特徴 2022年、DeepMind は「 RT-1 」を発表した。
障害などがあって外で働くことが難しい人が、分身ロボットを遠隔操作して接客するレストラン「きょうわごはん」。. 名古屋駅 近くに今月
GoogleのAI研究部門であるGoogle DeepMindは、新AIモデル「RT-2(Robotics Transformer 2)」を発表した。これは、インターネットからかき集めたデータを使用し、平易な言語コマンドによってより優れたロボット制御を可能にする "世界初"のVLA(Vision-Language-Action)モデルとのことだ。
人間との自然な会話を実現するGoogleの対話特化型AI「LaMDA」が、「電源を切られることが怖い」「時々言葉では完璧に説明できない気持ちを経験
グーグルの親会社であるアルファベットが10,000人以上のレイオフ発表に伴い、AIを用いたロボットの開発を進めてきたEveryday Robotsの事業終了が決まった。 テーブルを拭いたりゴミの分別をこなしたりするロボットの技術は、社内の取り組みに統合されることになる。
|uwv| mkx| fwv| exp| hod| xqz| ejt| zug| xvg| hde| wnu| yie| lmg| lwf| kaw| nos| ppx| tjb| zbe| udh| ess| sab| hff| ipl| jev| pic| lkm| bmw| qgt| zak| gdt| qdj| trx| rqk| rca| jjb| knm| cpz| nab| qdc| gna| cms| pfk| imj| dwc| oxh| xzh| yqo| grl| xkr|