استحوذت Google منذ بعض الوقت على شركة Quest Visual ، التي طورت تقنية تسمح لأي جهاز به كاميرا بترجمة النص في الوقت الفعلي. لا تمتلك Apple حاليًا أو تنوي إطلاق أي شيء مشابه ، ولكن إذا فعلت ما هو أحدثها ترخيص، ستبدو تقنية تطبيق Word Lens القديم سخيفة بالنسبة لنا. وهو أنه ، في المستقبل ، يمكن أن يكون iPhone قادرًا على قراءة ملف لغة الإشارة.
تحت عنوان «تتبع يدوي ثلاثي الأبعاد باستخدام متواليات العمق"، الاخير ترخيص معروف من كوبرتينو يصف نظامًا يكون الجهاز قادرًا عليه تحديد وتتبع موقف اليدين من خلال مساحة ثلاثية الأبعاد في الوقت الفعلي ، على غرار تتبع الوجه باستخدام تطبيق Photo Booth ، المتوفر لنظامي التشغيل OS X و iOS.
من بين الاحتمالات العديدة التي ستقدمها لنا التكنولوجيا الموصوفة في براءة الاختراع ، القدرة على قراءة لغة الإشارة ، والتي من شأنها أن تسمح لنا بفهم ما يقوله الشخص الصم والبكم ، طالما أن Apple قامت بتضمين القاموس في التطبيق و محاورنا يعرف اللغة.
من ناحية أخرى ، سيسمح لنا أيضًا التحكم في واجهة الجهاز iOS أو Mac أو Apple TV (إذا كانت تشتمل على كاميرا) أو Apple Watch بإيماءات وبدون الحاجة إلى لمس الشاشة. هذا يذكرني قليلاً بتطبيق Flutter الذي سمح لنا بتسريع أو إبطاء أو زيادة أو تقليل حجم iTunes والتطبيقات الأخرى باستخدام الإيماءات ، على الرغم من أنه في ذلك الوقت ، كان التطبيق (المملوك الآن لشركة Google) ضائعًا للغاية.
كما نقول دائمًا ، أن شركة ما حصلت على براءة اختراع لشيء ما لا يعني أننا سنراه على أحد أجهزتها في المستقبل ، ولكن إذا أخذنا في الاعتبار أن Apple تخطط لدخول سوق الواقع الافتراضي (VR) و زيادة واقع (AR) ، لا ينبغي أن نتفاجأ إذا ساعدتنا إحدى أجهزتها المستقبلية على التواصل مع الأشخاص الذين يعانون من مشاكل في الصوت. فقط الوقت لديه كل الإجابات.
اللغة أم اللغة ؟؟؟؟ المنعم يوسف ...
مرحبا بيبي. في هذه الحالة ، فهي مترادفة. ليغوا الإسبانية ، اللغة الفرنسية ...
تحية.