MIT, Nesneleri Görerek Hissedebilen Robot Geliştirdi

MIT profesörleri, görsel ve dokunsal verileri birleştirebilen bir robot kolu geliştirdi.

MIT’ın Bilgisayar Bilimleri ve Yapay Zeka Laboratuvarı’ndaki (CSAIL) araştırmacılar, nesneleri gördüğünde hissedebilen bir robot geliştirdi. Yeni yapay zeka, yalnızca bakarak nesnelerin nasıl hissettirebileceğini kavrayabilecek. Robot, bu özelliğin yanı sıra dokunarak nesnenin nasıl görüneceğini de tasvir edebilecek.

robot-insan

CSAIL’de doktora öğrencisi ve sistem hakkındaki araştırmanın başyazarı olan Yunzhu Li, projenin robotların gerçek dünyadaki nesneleri kontrol etmelerini kolaylaştıracağını bildirdi ve şu açıklamada bulundu:

Modelimiz, yalnızca bakarak düz bir zeminin ya da keskin bir nesnenin nasıl hissettireceğini hayal edebiliyor. Görsel veri almadan etrafı dokunarak keşfettiğindeyse modelimiz çevresini tahmin edebiliyor. Bu iki duyuyu bir araya getirdiğimizde robotları güçlendirip nesneleri kavramak ve manipüle etmek için gereken veriyi azaltabiliriz.”

Araştırma ekibi, modeli eğitmek için içerisinde dokunma duyusuna sahip sensörler bulunan, GelSight isimli bir KUKA robot kolunu kullandı. Bu eğitimin ardından model 200 adet nesneye 12.000 kez dokunarak görsel ve dokunsal verileri kaydetti. Bu verilere dayanarak 3 milyon görsel dokunsal imge oluşturuldu ve bu imgelere VisGel ismi verildi.

Kaynak

Yasemin Altun

Haliç Üniversitesi -Halkla İlişkiler ve Tanıtım

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir