تكنولوجيا: الذكاء الاصطناعي والتحديات المستقبلية نحو تقليل التحيز وتحقيق الشفافية - اليوم الإخباري

0 تعليق ارسل طباعة تبليغ حذف
AI-Bias-Two-Halves.webp

 شهدت السنوات الأخيرة تقدمًا ملحوظًا في مجال الذكاء الاصطناعي التوليدي، مع ازدياد استخداماته في العديد من المجالات الحيوية، مثل التمويل والرعاية الصحية والنقل. وقد رافق هذا التطور ظهور تقنيات جديدة في ميادين متعددة مثل الأمن السيبراني المتقدم والحوسبة الكمومية، مما يفتح آفاقًا واسعة للإبداع والتطور. ومع هذا التقدم، ظهرت تحديات معقدة تتطلب معالجتها بشكل عاجل، أبرزها مخاطر توظيف الذكاء الاصطناعي في الهجمات الإلكترونية المتقدمة، تزييف المحتوى، وظهور تحيزات غير مبررة في الأنظمة الذكية.

من بين التحديات الأكثر إثارة للقلق هو تحيز الذكاء الاصطناعي، وهو ما دفع بعض الشركات والمؤسسات البحثية إلى البحث عن حلول مبتكرة لتقليل هذا التحيز. على سبيل المثال، قامت مؤسسة NTT للأبحاث بتطوير تقنية تهدف إلى تقليل التحيز في الشبكات العصبية العميقة (DNNs)، وهي أحد أبرز أنواع الذكاء الاصطناعي الذي يستخدم في مجالات حساسة مثل التوظيف، القضاء، والرعاية الصحية.

تهدف التقنية الجديدة إلى ضمان أن النماذج الذكية تستطيع اتخاذ قرارات محايدة تعتمد على الكفاءة المهنية بدلاً من العوامل الشخصية مثل العرق أو الجنس. هذه النماذج قد تسهم في القضاء على التمييز في أماكن العمل، وتعزيز التنوع والشمولية في بيئات العمل المختلفة، مما ينعكس إيجابيًا على الإنتاجية ويوفر الوقت والجهد.

كما واجهت شركة أمازون تحديًا مشابهًا عندما اكتشفت أن خوارزمية التوظيف الخاصة بها كانت تُفضل المرشحين الذين يستخدمون مصطلحات معينة مثل "captured" و"executed"، وهي مصطلحات غالبًا ما كانت تظهر في السير الذاتية للرجال. 

من جانب آخر، أظهرت دراسة أجرتها الباحثة Joy Buolamwini بالتعاون مع Timnit Gebru في معهد ماساتشوستس للتكنولوجيا، أن بعض تقنيات تحليل الوجه كانت تُظهر معدلات خطأ أعلى عند تقييم النساء من الأقليات، وهو ما يعزى إلى نقص في بيانات التدريب الخاصة بها.

وفقًا لدراسة أخرى من MIT، أصبحت الشبكات العصبية العميقة قادرة على تحليل كميات ضخمة من المدخلات مثل الصوت والصور، ما يسمح لها بتحديد الأنماط المشتركة وتصنيف الكائنات والكلمات. ورغم هذه القدرات المتقدمة، إلا أن هذه الشبكات قد تتأثر أحيانًا بخصائص غير موضوعية تؤدي إلى ظهور تحيزات في نتائجها.

لحل هذه المشكلة، قدم الباحث Hidenori Tanaka من مؤسسة NTT للأبحاث مع فريقه من العلماء تقنية جديدة تدعى "الضبط الدقيق القائم على الاتصال" (CBFT)، والتي تهدف إلى تقليل اعتماد النماذج الذكية على السمات التي قد تؤدي إلى نتائج متحيزة. يعمل هذا النظام على تعديل مسارات البيانات في النموذج لتجنب التحيزات الناتجة عن خصائص مثل الخلفيات.

إن التطورات في الذكاء الاصطناعي التوليدي تعد بفتح آفاق جديدة في عدة مجالات، ولكن من الضروري مواجهة التحديات المترتبة عليها، خاصة فيما يتعلق بالتحيز. ولهذا، يجب على المطورين والباحثين وصناع القرار التعاون معًا لوضع معايير قانونية وأخلاقية تضمن الاستخدام المسؤول لهذه التقنيات، مما يعزز استفادتنا منها دون أن يؤدي ذلك إلى ظهور مشاكل جديدة.


ولا تنسى الضغط هنا ومتابعة قناتنا على تليجرام

أخبار ذات صلة

0 تعليق