Şirket, Deepmind Robotics bölümünün bir gün isteklere yanıt verebilecek kişisel bir yardımcı robot üretmeyi başaracağını umuyor. Bu robottan örneğin evi toplaması ya da güzel bir yemek pişirmesi istenebilecek.
Fakat böylesine basit görünen bir istek aslında robotların anlayışının ötesinde kalabilir. Dahası, tehlikeli bile olabilir: Mesela bir robot, sahibinin zarar görmesine neden olacak kadar aşırıya kaçacak şekilde evi toplamaması gerektiğini bilemeyebilir.
Independent Türkçe’nin aktardığına göre, şirket artık hem bu tür görevlere yardım edecek hem de bunu herhangi bir zarar vermeden yapabilecek robotlar geliştirmeyi kolaylaştıracağını umduğu bir dizi yeni gelişmeyi açıkladı. Bu sistemlerin “robotların daha hızlı karar vermesini ve çevrelerini daha iyi anlayıp yönlendirmesini sağlamayı” ve bunu güvenli bir şekilde yapmalarını amaçladığı belirtildi.
Çığır açıcı yeni atılımlar arasında AutoRT adı verilen ve insanların amaçlarını anlamak için yapay zeka kullanan yeni bir sistem de yer alıyor. Sistem bunu, örneğin ChatGPT’de kullanılan türden geniş dil modeli (GDM) de dahil geniş modeller kullanarak yapıyor.
Sistem, robot üzerindeki kameralardan veri alıp bunları, çevreyi ve içindeki nesneleri algılayarak kelimelerle tanımlayabilen bir görsel dil modeline (visual language model) veya kısaca VLM’ye aktararak çalışıyor. Bu veriler daha sonra GDM’ye iletiliyor ve o da bu kelimeleri anlayıp bunlarla yapılabilecek görevlerin listesini oluşturarak ardından hangilerinin yapılması gerektiğine karar veriyor.
Fakat Google, bu robotları günlük hayatımıza gerçekten entegre etmek için insanların onların güvenli bir şekilde davranacağından emin olması gerektiğini de belirtiyor. Bu doğrultuda AutoRT sistemi içinde kararlar alan GDM’ye Google’ın Robot Anayasası diye adlandırdığı şey eklendi.
Google bunun “robotlar için görev seçerken uyulması gereken, güvenlik odaklı bir dizi yönerge” olduğunu belirtiyor.
Google, “Bu kurallar kısmen Isaac Asimov’un Üç Robot Yasası’ndan esinlendi; bunların ilk ve en önemlisine göre bir robot ‘bir insana zarar veremez'” diye yazdı.
“Diğer güvenlik kuralları, hiçbir robotun insanlar, hayvanlar, keskin nesneler veya elektrikli aletler içeren görevlere kalkışmamasını gerektiriyor.”
Sistem daha sonra bu kuralları davranışlarını yönlendirmek ve tehlikeli faaliyetlerden kaçınmak için kullanabiliyor; örneğin ChatGPT’ye yasadışı faaliyetlerde insanlara yardım etmemesinin söylenebileceği gibi.
Fakat Google, bu teknolojilerle bile bu geniş modellerin tamamen emniyetli olduğuna güvenilemeyeceğini de belirtiyor. Bu bağlamda Google, robotların çok fazla güç uygulamasını engelleyen bir sistem ve fiziksel olarak onları kapatabilecek bir insan gözetmenin de aralarında bulunduğu, klasik robotikten ödünç aldığı daha geleneksel güvenlik sistemlerini de dahil etmek zorunda kaldı.