لماذا يفضل مطوري الذكاء الاصطناعي المعالجة على كارد الشاشة بدل من CPU

نسولف اليوم عن موضوع مهم لمطوري تطبيقات الذكاء الاصطناعي او حتى الباحثين بهذا المجال وهو ليش هؤلاء يفضلون تدريب المودلز (نماذج الذكاء الاصطناعي ) على كارت الشاشة بدل المعالج ؟ ايضا ليش بعملية تعدين العملات الرقمية ايضا يفضلون كارت الشاشة على المعالج ؟
كبداية اي تطبيق هو عبارة عن مجموعة من الاوامر والبيانات الي تحتاج لمعالج يعالجها ، فهنا لو كان عندنا بيانات كبيرة وايضا عمليات معالجة كثيرة فنحتاج الى معالج عالي السرعة هذا بالطرق التقليدية ويبدي ينفذ سطر بعد سطر بعملية تسلسلية ، بعدين من ظهر موضوع المعالجات الداخلية Cores حل المشكلة ،لكن مقابل هذا تطورت التطبيقات اكثر واحتاجت معالجة اكثر والبيانات صارت اكبر واكبر .
هنا رجعوا لتقنية مثيرة للاهتمام وهي المعالجة المتوازية يسموها Prarallel Computing  وهذي تتطلب معمارية المعالج يكون بيها اكثر من معالج وايضا سوفت يدير هالشي .
طيب وشنو علاقة هذا بهذا ، اني اكولك هنا صار التطبيق ممكن نوزعه على جميع الكورز بالمعالج بدل كور واحد فيكون التنفيذ اسرع ، لكن ؟ شكم كور بالمعالج ؟
حاليا بالحاسبات الشخصية ممكن يوصل ل١٦ كور وسعره يكون غالي ، طيب واذا عندك معالجات حتى ١٦ كور متنفع وياه ؟ اي نعم بعض نماذج الذكاء الاصطناعي تحتاج اكثر من هذا ! والحل ؟
هنا قالوا ليش ما نستفاد من كارت الشاشة ؟ اي نعم ، الشركات الي تصنع هذي الكارتات مثل Nvidia  و AMD استغلت الوضع حتى تخلي كارت الشاشة مو مجرد معالج رسومي بسيط ، فغيرو بمعمارياتهم و عملوا منصات برمجية للمطورين حتى يرغبون الناس بكارت الشاشة .
فمثلا انفيديا عملت منصة سمتها CUDA ووفرت بيها كثير اشياء مثل ادارة الميموريز والتولكتز .. الخ والاقوى وفرت كورات جدا كثيرة بالكارت مشابهه لكورات المعالج CPU سمتها CUDA Cores وايضا كورات لمكتبة Tensor  .
خلي نضرب مثل تخيل اعلى معالج بالسيرفرات يوصل عدد الكورات بي تقريبا ١٢٨ ، لكن كارت الشاشة مثلا RTX  3090  بي اكثر من عشرة الاف   CUDA Cores !!!
لكن ! هذي المنصة وكوراتها و Tensor Cores مو لكلشي تستخدمها ، وانما للمطورين يكدرون يستخدمونها حتى ينفذون (يدربون ) مودلاتهم على هذي الكورات بالتوازي  ، او التعدين بالعملات الرقمية يعني الموضوع برمجي. حتى بالسيارات ذاتية القيادة هذي الكارتات مهمة جدا بيها بالمعالجة بسبب ضخامة البيانات.
وايضا حتى مكتبة Tensor الخاصة بتطبيقات الذكاء  .
طيب و AMD شصار معاه ؟ ايضا نزلت منصة مشابه لCUDA سمتها ROCm لكن مو بقوة CUDA   .
لهذا السبب المعالجة الي تكون بكارت الشاشة (المتوازية) اسرع بكثير .
الموضوع اعلاه مختصر بسيط ، فيه تفاصيل كثيرة لم نتطرق لها .

الكشف عن بصمات الاصابع المزورة

تزوير بصمة الإصبع Fingerprint اليوم تعتبر واحدة من أكبر التحديات الي تواجه الانظمة البايومترية وهذي نقصد بيها الانظمة الي تعتمد على بصمات الأصابع في التحقق من المستخدم مثل الي موجودة بالموبايلات .
على العموم السؤال الاهم كيف نميز بين البصمات الحقيقية والمزوره ؟ طبعا من المستحيل نقدر نميز بينهم بالعين المجردة ، ونقصد بالبصمة المزورة Fake fingerprint يعني مثلا اثر بصمتك على شاشة التلفون ممكن اي شخص بأستخدام مواد سيلكونية يسحبها وتكون عنده بصمتك .
نرجع للسؤال والاجابه عليه تحتاج كلام لساعات لكن بالمختصر هناك طريقتين
الأولى : تكون عن طريق استخدام حساسات وكاميرات عالية الدقة ، وبأستطاعتها تميز البصمة الحقيقة عن المزورة لكن المشكلة هذي مكلفة جدا .
يعني مثلا لو أردنا تطبيقها بأجهزة الموبايل ذات المواصفات البسيطة والأسعار الرخيصة بالتالي تكون كلفتها أغلى من سعر الموبايل.
الثانية : تكون عن طريق برمجيات ، وهذي حاليا كنز للبحوث ، فالطرق المقترحة باستخدام المشين ليرننك او خوارزميات الديب ليرننك تكون عن طريق استخراج سمات من صورة البصمة(سواء مزورة او حقيقية ) ومقارنتها مع البصمة الاصلية لكن المشكلة لازالت دقة النتائج دون المطلوب .

السطر الأعلى من الصورة بصمات حقيقية ، والاسفل بصمات مزورة .