لماذا الذكاء الاصطناعي لا يتنبأ بالزلازل ؟


حاليا اكو بعض نماذج الذكاء الاصطناعي اعطت دقة جيدة مختبريا ، لكن المشكلة مثل هكذا نماذج تحتاج بيانات ضخمة ومعالجة عالية جدا بالتالي فهذا عائق كبير امام الباحثين بهذا المجال .

ايضا لحد الان لا يوجد نمط ممكن الاعتماد عليه في التنبأ .
بسنة ٢٠٢٢ اعلنت اكاديمية سينيكا الاكاديمية وبالتعاون مع NCHC عن تطوير نموذج ذكاء اصطناعي وبدقة عالية ، النموذج يكدر يتنبأ بالزلزال اذا درجته ٦ او اعلى حسب مقياس ريختر قبل ٢٤ ساعة من حدوثة بالاعتماد على التغييرات الي تصير بالطبقات التكتونية لآخر ثلاثين يوم .
النموذج تم تدريبة على بيانات ضخمة داخل سوبر كومبيوتر .
ايضا لاحظ علماء الزلازل ان استهلاك الكهرباء بالغلاف الجوي يتغير بنصف قطر ٥٠ كيلومتر من مركز الزلزال قبل حدوثة وهذا ممكن يفيد كنمط لتطوير نموذج ذكاء اصطناعي عليه .

لماذا يفضل مطوري الذكاء الاصطناعي المعالجة على كارد الشاشة بدل من CPU

نسولف اليوم عن موضوع مهم لمطوري تطبيقات الذكاء الاصطناعي او حتى الباحثين بهذا المجال وهو ليش هؤلاء يفضلون تدريب المودلز (نماذج الذكاء الاصطناعي ) على كارت الشاشة بدل المعالج ؟ ايضا ليش بعملية تعدين العملات الرقمية ايضا يفضلون كارت الشاشة على المعالج ؟
كبداية اي تطبيق هو عبارة عن مجموعة من الاوامر والبيانات الي تحتاج لمعالج يعالجها ، فهنا لو كان عندنا بيانات كبيرة وايضا عمليات معالجة كثيرة فنحتاج الى معالج عالي السرعة هذا بالطرق التقليدية ويبدي ينفذ سطر بعد سطر بعملية تسلسلية ، بعدين من ظهر موضوع المعالجات الداخلية Cores حل المشكلة ،لكن مقابل هذا تطورت التطبيقات اكثر واحتاجت معالجة اكثر والبيانات صارت اكبر واكبر .
هنا رجعوا لتقنية مثيرة للاهتمام وهي المعالجة المتوازية يسموها Prarallel Computing  وهذي تتطلب معمارية المعالج يكون بيها اكثر من معالج وايضا سوفت يدير هالشي .
طيب وشنو علاقة هذا بهذا ، اني اكولك هنا صار التطبيق ممكن نوزعه على جميع الكورز بالمعالج بدل كور واحد فيكون التنفيذ اسرع ، لكن ؟ شكم كور بالمعالج ؟
حاليا بالحاسبات الشخصية ممكن يوصل ل١٦ كور وسعره يكون غالي ، طيب واذا عندك معالجات حتى ١٦ كور متنفع وياه ؟ اي نعم بعض نماذج الذكاء الاصطناعي تحتاج اكثر من هذا ! والحل ؟
هنا قالوا ليش ما نستفاد من كارت الشاشة ؟ اي نعم ، الشركات الي تصنع هذي الكارتات مثل Nvidia  و AMD استغلت الوضع حتى تخلي كارت الشاشة مو مجرد معالج رسومي بسيط ، فغيرو بمعمارياتهم و عملوا منصات برمجية للمطورين حتى يرغبون الناس بكارت الشاشة .
فمثلا انفيديا عملت منصة سمتها CUDA ووفرت بيها كثير اشياء مثل ادارة الميموريز والتولكتز .. الخ والاقوى وفرت كورات جدا كثيرة بالكارت مشابهه لكورات المعالج CPU سمتها CUDA Cores وايضا كورات لمكتبة Tensor  .
خلي نضرب مثل تخيل اعلى معالج بالسيرفرات يوصل عدد الكورات بي تقريبا ١٢٨ ، لكن كارت الشاشة مثلا RTX  3090  بي اكثر من عشرة الاف   CUDA Cores !!!
لكن ! هذي المنصة وكوراتها و Tensor Cores مو لكلشي تستخدمها ، وانما للمطورين يكدرون يستخدمونها حتى ينفذون (يدربون ) مودلاتهم على هذي الكورات بالتوازي  ، او التعدين بالعملات الرقمية يعني الموضوع برمجي. حتى بالسيارات ذاتية القيادة هذي الكارتات مهمة جدا بيها بالمعالجة بسبب ضخامة البيانات.
وايضا حتى مكتبة Tensor الخاصة بتطبيقات الذكاء  .
طيب و AMD شصار معاه ؟ ايضا نزلت منصة مشابه لCUDA سمتها ROCm لكن مو بقوة CUDA   .
لهذا السبب المعالجة الي تكون بكارت الشاشة (المتوازية) اسرع بكثير .
الموضوع اعلاه مختصر بسيط ، فيه تفاصيل كثيرة لم نتطرق لها .

مشكلة حجم البيانات في السيارات ذاتية القيادة

وحدة من مشاكل السيارات ذاتية القيادة هي حجم البيانات .
طبعا كبداية السيارات الذكية او ذاتية القيادة يصنفوها خمس اصناف حسب نسبة القيادة الذاتية .
يعني مثلا الصنف الاول تكون القيادة الذاتية فيها بسيطة مثلا تقدم السيارة للامام او للخلف اما الصنف الخامس فمعناه قيادة السيارة وتحركها بالطرق تكون ذاتية ولحد الان للوصول للصنف الخامس هناك عدة تحديات ابرزها البيانات ، شلون ؟
كلما تكون السيارة ذاتية القيادة تماما معناه تحتاج الى حساسات كثيرة وكاميرات عدة عالية الدقة وثلاثية الابعاد ، وكل هذه الحساسات والكاميرات هي مصادر توليد بيانات مستمرة كلما تحركت السيارة ، هذه البيانات يتم معالجتها من خلال نموذج ذكاء اصطناعي كسوفتوير (Reinforcement Learning ( اما الهاردوير فيكون على كارت شاشة GPU ذو مواصفات عالية وهنا تتنافس NVIDIA و AMD بهذا المجال .
المشكلة هذه البيانات وين تتخزن ؟
الخيارات المطروحة اما كل حساس او كاميرا يكون بيها خزن ، او الخيار الاخر تكون خزن مركزي لكل هذه الاجهزة ، والمشكلة الاخرى شلون تنتقل هذه البيانات بين الاجهزة .
بوحدة من الاختبارات وصل حجم البيانات المتولدة من الحساسات والكاميرات خلال يوم واحد الى ١٠٠ تيرا !!!
شركة Seagate المتخصصة بصناعة اجهزة الخزن تقول ممكن تكون كلفة اجهزة الخزن عشرات الالاف من الدولارات وبالتالي ستكون السيارة مكلفة ومعناه فشل هذا المشروع .
حاليا هذه المعضلة مفتوحة للبحث العلمي ،وبنفس الوقت هناك تعاون بين الشركات لحلها فمثلا seagate و IBM و NVidia عدهم مشروع مشترك لطرح حل رخيص وناجح لهذه المشكلة .
للمهتمين الموضوع اعلاه يعتبر من ضمن مجال System on Chip SoC و AI.

ماهي تقنية Automated Offside technology

بما ان الغالبية هذي الفترة متابع لكأس العالم بقطر ، فاليوم نسولف عن واحدة من التقنيات الجديدة التي استخدمت لأول مرة بهذه البطولة وربما سوف تعمم على باقي البطولات وهي تكنولوجيا تحديد التسلل Automated offside technology .
من ضمن المجالات الفرعية بالذكاء الاصطناعي اكو مجال اسمه انظمة صناعة القرار المعتمدة على الذكاء الاصطناعي ،وهذي فكرتها ننطي بيانات لنظام ذكاء اصطناعي بالزمن الحقيقي ويحلل البيانات وينطي القرار بدقة عالية جدا وبسرعة كبيرة .
هنا الفيفا استعانت ببعض الشركات ورادت تستفاد من الذكاء الاصطناعي بموضوع التسلل لان اغلب اخطاء الحكام تقع فيه ، فأخترعوا حل وهو تكنلوجيا تحديد التسلل الي هي تطبيق من تطبيقات انظمة صناعة القرار .
فكرة هذي التكنلوجيا انو نصبوا ١٢ كاميرا عالية الدقة بسقف الملعب وظيفتها تتبع حساس مزروع  بالكرة (بالعراقي الطوبة) وايضا تتبع ٢٩ نقطة بجسم كل لاعب مثلا ( الرأس ، القدم ، اليد ..الخ ) وموقع النقاط بالملعب (خمسين صورة تاخذ بالثانية الواحدة) ، وترسل البيانات لنظام موجود على خادم Server الي بدوره يحلل هذي البيانات ويحدد اذا اكو تسلل او لا ويرسل تنبية وصور الى شاشات غرفة الفار الي بيها حكام يشوفون الصور وينطون خبر لحكم الساحة لهذا تلاحظ دائما يتأخر حكم الساحة بأتخاذ قرار التسلل لان ينتظر النتائج من حكام الفار .
عموما هذي التقنية اثبتت نجاحها وخصوصا في مباراة المنتخب السعودي والارجنتيني وربما تتوسع تطبيقها لتشمل اكثر من التسلل .
وبنفس الوقت ارى زيادة تطبيق التكنولوجيا بكرة القدم تفقدنا متعة مشاهدة مباريات كرة القدم .

الكشف عن بصمات الاصابع المزورة

تزوير بصمة الإصبع Fingerprint اليوم تعتبر واحدة من أكبر التحديات الي تواجه الانظمة البايومترية وهذي نقصد بيها الانظمة الي تعتمد على بصمات الأصابع في التحقق من المستخدم مثل الي موجودة بالموبايلات .
على العموم السؤال الاهم كيف نميز بين البصمات الحقيقية والمزوره ؟ طبعا من المستحيل نقدر نميز بينهم بالعين المجردة ، ونقصد بالبصمة المزورة Fake fingerprint يعني مثلا اثر بصمتك على شاشة التلفون ممكن اي شخص بأستخدام مواد سيلكونية يسحبها وتكون عنده بصمتك .
نرجع للسؤال والاجابه عليه تحتاج كلام لساعات لكن بالمختصر هناك طريقتين
الأولى : تكون عن طريق استخدام حساسات وكاميرات عالية الدقة ، وبأستطاعتها تميز البصمة الحقيقة عن المزورة لكن المشكلة هذي مكلفة جدا .
يعني مثلا لو أردنا تطبيقها بأجهزة الموبايل ذات المواصفات البسيطة والأسعار الرخيصة بالتالي تكون كلفتها أغلى من سعر الموبايل.
الثانية : تكون عن طريق برمجيات ، وهذي حاليا كنز للبحوث ، فالطرق المقترحة باستخدام المشين ليرننك او خوارزميات الديب ليرننك تكون عن طريق استخراج سمات من صورة البصمة(سواء مزورة او حقيقية ) ومقارنتها مع البصمة الاصلية لكن المشكلة لازالت دقة النتائج دون المطلوب .

السطر الأعلى من الصورة بصمات حقيقية ، والاسفل بصمات مزورة .

كورس البرمجة مع لغة البايثون

الكورس يبدأ من الصفر الى المستوى المتوسط بالبايثون ولا يشترط ان يكون لدى المشترك اي خلفية برمجية وانما بعض المعلومات الاساسية عن الحاسوب (كورس اساسيات الايتي )

منهج الكورس – ثلاثة عشر جزء وكالتالي :

1- What are Computer and Programs

2- First Program with Python

3- Computing and Numbers

4- Objects and Graphics

5- Sequences

6- Functions

7- Decision Structures

8- Loop Structures and Booleans

9- Simulation and Design

10- Classes

11- Data Collections

12- Object Oriented

13- Algorithms and Recursion

الكورس سوف يعطيك الاساسيات المهمة في لغة البايثون وايضا في تصميم الخوارزميات ، وايضا التعرف على بعض التقنيات البرمجية الحديثة .

الكورس مهم لمن يرغب في التخصص في مجال الذكاء الصناعي وعلم البيانات وحتى مجال الشبكات ..

رابط الكورس