ميزات بحث مرئية بالذكاء الاصطناعى | تعرف على أحدث نظارات ميتا الذكية

تكنولوجيا

ميزات بحث مرئية بالذكاء الاصطناعى | تعرف على أحدث نظارات ميتا الذكية.

تقدم شركة ميتا أحدث نظاراتها الذكية بميزات قوية والعديد من التحسينات بالذكاء الاصطناعي.

ويمكن أن تقطع التحديثات شوطًا طويلًا نحو جعل Meta AI تبدو أقل لفتًا للانتباه وأكثر فائدة، وهو ما كان أحد أهم شكواي في مراجعتي الأولية للنظارات الذكية المثيرة للإعجاب، لسوء الحظ من المحتمل أن يستغرق الأمر بعض الوقت قبل أن يتمكن معظم الأشخاص الذين يستخدمون النظارات الذكية من الوصول إلى وظيفة الوسائط المتعددة الجديدة.

نشرت Threads فيديو يتضمن أن المستخدمين سيكونون قادرين أيضًا على سؤال Meta AI عن محيطهم المباشر بالإضافة إلى المزيد من الأسئلة الإبداعية مثل كتابة التسميات التوضيحية للصور التي التقطوها للتو.

حيث تضيف ميتا دعم للمعلومات في الوقت الفعلي، وتبدأ فى اختبار إمكانات “متعددة الوسائط” الجديدة التى تسمح لها بالإجابة على الأسئلة بناءً على بيئتك، وفقا لتقرير engadget.

حتى الآن، كان لدى Meta AI “موعد نهائى للمعرفة” بحلول ديسمبر 2022، لذلك لم تتمكن من الإجابة على أسئلة حول الأحداث الجارية، أو أشياء مثل نتائج المباريات، أو ظروف حركة المرور أو الاستعلامات الأخرى التي قد تكون مفيدة بشكل خاص أثناء التنقل.

لكن هذا الأمر تغير الآن، وفقًا لما ذكره مدير التكنولوجيا في Meta CTO Andrew Bosworth، الذي قال إن جميع نظارات Meta الذكية في الولايات المتحدة ستتمكن الآن من الوصول إلى المعلومات في الوقت الفعلي، وأضاف أن التغيير مدعوم “جزئيًا” بواسطة Bing.

وبشكل منفصل، بدأت ميتا فى اختبار إحدى القدرات الأكثر إثارة للاهتمام لمساعدها، والتى تسميها “الذكاء الاصطناعي متعدد الوسائط، وتسمح الميزات التي تمت معاينتها لأول مرة أثناء Connect، لـ Meta AI بالإجابة على الأسئلة السياقية حول البيئة المحيطة بك والاستعلامات الأخرى بناءً على ما تنظر إليه من خلال النظارات.

وقال Bosworth إن الإصدار التجريبي أحدث نظارات ميتا الذكية للوصول المبكر سيكون متاحًا فقط في الولايات المتحدة “لعدد صغير من الأشخاص الذين اختاروا الاشتراك” في البداية، ومن المفترض أن يأتي الوصول الموسع في وقت ما في عام 2024.

وشارك كل من مارك زوكربيرج بعض مقاطع الفيديو حول الإمكانات الجديدة التي تعطي فكرة عما قد يكون ممكنًا، وبناءً على المقاطع يبدو أن المستخدمين سيكونون قادرين على التعامل مع الميزة من خلال الأوامر التي تبدأ بـ “Hey Meta، look and say me”، وعلى سبيل المثال يطلب زوكربيرج من Meta AI النظر إلى القميص الذي يحمله ويطلب منه اقتراحات بشأن السراويل التي قد تتطابق معه.

كما شارك أيضًا لقطات شاشة تُظهر Meta AI وهو يحدد صورة قطعة من الفاكهة.