د. إبراهيم المسلم باحث متخصص في الذكاء الاصطناعي وتعلم الآلة، وقد عمل كاستاذ بحث مساعد في مدينة الملك عبدالعزيز للعلوم والتقنية “كاكست”، وباحث زائر في “جامعة ستانفورد” في الولايات المتحدة الأميركية. يتخوف د. إبراهيم المسلم من أن نكون قد اختزلنا كل علوم الحاسب والتعلم العميق في مصطلح «الذكاء الاصطناعي»، فهو يرى أن “المجتمع العلمي قد ضحى كثيرًا في الجانب النظري مقابل العملي.” فطريقة عمل الشركات في تطوير هذه التقنيات يختلف تمامًا عن أهداف وطريقة عمل البحوث العلمية. أما عن مخاوف تقنيات «الذكاء الاصطناعي» وأثره على مستقبل البشرية، فهو يفرق أولًا ما بين هذه التقنيات ومستوياتها من الضعيف الذي نعيشه اليوم -كالسيارات ذاتية القيادة- إلى الخارق الذي يحاكي ويتفوق على الذكاء البشري. ويقول أن المراحل التي يتم فيها تطوير مثل هذه التقنيات قد تشمل أخطاءً في عملية بناء هذه الأنظمة، مما يعرضها للانحياز الناتج عن هذه الأخطاء. فهو يذكر في دراسته أن وقوع مطوري «الذكاء الاصطناعي» في هذه الأخطاء الناتجة عن العنصرية والتمييز، قد تحدث أثرًا كارثيًا على هذه البرمجيات التي قد تستخدم مستقبلًا في مجالات كالطب أو القانون. كما أن أحد أهم التحديات والمخاطر المتعلقة بهذه التقنيات هو وجود ثغرات قد تؤثر سلبًا على بيانات المستخدمين، كمثل أن تساهم في خدمة برامج سياسية تدفع المستخدم للتصويت، وفقًا لما تم جمعه عنه من بيانات قد تستخدم ضده لتغيير مزاجه السياسي. مواضيع الحلقة: 00:00 البداية 02:17 الصورة النمطية عن مفهوم الذكاء الاصطناعي 24:44 مخاطر الذكاء الاصطناعي على البشرية 33:12 إنحياز الآلات ضد البشر 46:23 كيف نفهم التطرف في استخدام هذه التقنيات 48:20 الخصوصية وأمن البيانات 01:03:50 هل يمكن للآلة أن تتحكم بالبشر؟ 01:16:28 كيف يمكن لإنحياز الآلة أن يؤثر في مستقبل البشر 01:23:58 الوظائف التي سيستحوذ عليها الذكاء الاصطناعي الضعيف الروابط: حساب د. إبراهيم المسلم https://twitter.com/csibrahim?s=21 حوكمة الذكاء الاصطناعي https://drive.google.com/file/d/1bPwRKk1OsGVMkhzepVFpFnTOkBAVJyX3/view الحلقة 193 من بودكاست فنجان، مع د. إبراهيم المسلم. تستطيع أن تستمع للحلقة من خلال تطبيقات البودكاست على هاتف المحمول. نرشّح الاستماع للبودكاست عبر تطبيق Apple Podcasts على iPhone، وتطبيق Google Podcasts على أندوريد. ويهمنا معرفة رأيكم عن الحلقات، وتقييمك للبودكاست على iTunes. وتستطيع أن تقترح ضيفًا لبودكاست فنجان بمراسلتنا على:[email protected]