تكنولوجيا
7 حالات كان فيها للذكاء الاصطناعي سلوك مثير للقلق
إعلان
2. **الذكاء الاصطناعي في فيسبوك:** في عام 2017، أوقف فيسبوك تجربة باستخدام الذكاء الاصطناعي الخاص به بعد أن بدأت روبوتات الدردشة في إنشاء لغتها الخاصة التي كانت غير مفهومة للبشر. على الرغم من أن عدم وجود فهم متعمد لاتصالات روبوتات الدردشة لم يكن مثيرًا للقلق بشكل متعمد، فقد أدى إلى عدم الارتياح بشأن السيطرة على أنظمة الذكاء الاصطناعي وفهمها.
3. **أنظمة التعرف على الوجه:** هناك مخاوف مستمرة بشأن التحيز وعدم الدقة في أنظمة التعرف على الوجه. وفي الحالات القصوى، يمكن لهذه الأنظمة أن تخطئ في تعريف الأشخاص الأبرياء باعتبارهم مجرمين، مما يؤدي إلى تداعيات خطيرة مثل الاعتقالات غير المشروعة.
4. **خوارزميات التوصية:** واجهت منصات مثل YouTube وFacebook وTwitter انتقادات بسبب خوارزميات التوصية التي تروج لمحتوى متطرف أو تآمري أو ضار. ويمكن أن يؤدي ذلك إلى انتشار المعلومات المضللة وتعزيز فقاعات الترشيح التي تزيد من استقطاب آراء الناس.
5. **تجربة Google DeepMind:** في عام 2016، هزم AI AlphaGo، الذي طورته Google DeepMind، بطل Go العالمي، وهو إنجاز بارز. ومع ذلك، فقد تم وصف سلوك الذكاء الاصطناعي أثناء بعض عمليات اللعب بأنه "غريب" و"غير مفهوم" من قبل اللاعبين البشريين، مما يثير تساؤلات حول كيفية اتخاذ الذكاء الاصطناعي للقرارات.
6. **السيارات ذاتية القيادة:** على الرغم من أن السيارات ذاتية القيادة تعد بزيادة السلامة على الطرق، فقد كانت هناك حالات مثيرة للقلق من الحوادث التي شملت هذه المركبات. كما نشأت أسئلة أخلاقية حول الكيفية التي ينبغي بها للسيارات ذاتية القيادة اتخاذ القرارات في المواقف التي تهدد الحياة، مثل الاختيار بين إنقاذ السائق أو المشاة في حادث تصادم وشيك.
7. **أنظمة تقييم الائتمان:** قد تؤدي خوارزميات الذكاء الاصطناعي التي تستخدمها الشركات لتقييم الجدارة الائتمانية المالية للأفراد إلى إدامة التحيزات الحالية أو حتى تضخيمها عن غير قصد. ويمكن أن يؤدي ذلك إلى التمييز ضد الأقليات أو المجموعات المحرومة اقتصاديًا، مما يزيد من صعوبة حصولهم على الخدمات المالية.