Pomoću 12 tisuća video zapisa o dodirivanju 200 objekata poput tkanina, alata i kućanskih sitnica u timu pri MIT-ju su naučili umjetnu inteligenciju kako naslijepo predvidjeti interakciju s okolinom samo dodirom
Nama ljudima obično je lako reći kakav će neki objekt biti na dodir ako ga možemo vidjeti ili kako izgleda ako ga možemo dodirnuti. Strojevima to može biti poveći izazov, ali ne i robotu kojeg razvijaju u Computer Science and Artificial Intelligence Laboratory (CSAIL) pri Massachusetts Institute of Technology (MIT).
sve je moguće
Vječno topla kava, tableta koja vam javlja da je popijena... ovo su najluđi izumi u 2018.
Tim istraživača je robotskoj ruci KUKA dodao senzor osjeta GelSight, kojeg je razvila skupina pri CSAIL-u na čijem je čelu Ted Adelson. Podatke prikupljene GelSightu ubacili su u umjetnu inteligenciju na obradu kako bi mogla naučiti više o odnosu vizualnih i taktilnih podataka.
Ne bi li naučili umjetnu inteligenciju više o dodiru, u timu su snimili 12 tisuća video zapisa o dodirivanju 200 objekata poput tkanina, alata i kućanskih sitnica, koje su potom razlomili na pojedinačne snimke koje dali umjetnoj inteligenciji na obradu.
Dobili su model koji može 'zamisliti' osjet dodira ravne površine ili oštrog ruba te temeljem pipanja naslijepo predvidjeti interakciju s okolinom samo dodirom.
Zasad robot to može činiti samo u kontroliranim uvjetima, ali idući korak već predviđa veći set podataka kako bi se mogao snaći i u raznolikijim okruženjima, piše Engadget.