Meta ve Austin’deki Texas Üniversitesi’nden bir küme araştırmacı, Metaverse için ortak bir çalışma başlattılar.
Meta Yapay Zeka Araştırma Yöneticisi Kristen Garuman’ın açıklamasına nazaran artırılmış ve sanal gerçeklik (AR ve VR) için birlikte çalışacak bu takım, sanal görünümlerin gerçek hayattan ayırt edilemeyecek formda görünmesi için bilhassa ses üzerine ağırlaşacak. Garuman, yaptığı açıklamada bunun nedenini “ses, içinde bulunduğu ortam tarafından şekillendirilir” diyerek açıkladı. Ayrıyeten bir odanın geometrisi, kelam konusu odada ne olduğu ve birinin bir kaynaktan ne kadar uzakta olduğu üzere şeylerin ses ile anlaşılabileceğini belirtti.
Meta bu hedefle hem sesi hem de görüntüyü tek bir yerden ileten AR gözlükleri kullanmayı, akabinde bir dizi yapay zeka modelini kullanarak kaydı dönüştürmeyi ve optimize etmeyi hedefliyor. Böylelikle bir görüntü oynatıldığında olaylar çabucak önünüzde gerçekleşiyor üzere hissedebileceksiniz. Meskende dar bir alanda dahi olsanız yapay zeka modelleri bulunduğunuz odayı hesaba katacak ve çabucak etrafa ahenk sağlayarak size manzarayı aktaracak.
Meta’nın uzun vakittir AR gözlüklerine odaklandığı biliniyor. Geçtiğimiz günlerde Mark Zunckerberg tarafından birtakım gözlüklerin prototipleri de tanıtılmıştı.
Meta, bu projesiyle Metraverse’de konser üzere bir ortamın imgelerini ve seslerini aktararak şahsen oradaymışsınız üzere hissetmenizi sağlayacak.
GERÇEKLİK İÇİN YAPAY ZEKADAN YARARLANILACAK
Meta, “Görsel Akustik Eşleştirme modeli” ya da kısa ismiyle AViTAR sistemini kullanarak bu maksadında muvaffakiyete ulaşmayı hedefliyor. AViTAR, sesi yeni bir ortama uyacak biçimde dönüştürmek için yapay zekadan yararlanıyor.
Meta, ilerleyen vakitlerde ise herkesin bir çift AR gözlükle görüntü kaydederek anıların her vakit canlı kalacağı bir proje üzerinde çalışıyor. AR gözlükle kayıt altına alınan görüntüler daha sonra yine izlendiğinde yapay zeka yardımıyla o anlar tekrar yaşanabilecek.