• أخلاقيات الآلة.. السيارة القاتلة!

    صمَّمَ باحثون في مختبرِ MIT Media Lab تجربةً تسمى "آلة الأخلاق MORAL MACHINE" في عام 2014، وكانت غايةُ التجربة إنشاءَ منصّة شبيهة باللعبة من شأنِها أن تجمع القراراتِ التي يمكن أن يتَّخذها الناس عن كيفيةِ إعطاء السيارات ذاتية القيادة الأولويةَ في الحياة لِمن يعترض طريقّهم في أثناءِ العمل، وقد درست التجربة احتمالاتٍ مختلفة ووجهاتِ نظر متعددة لمعضلة (ترولي) الفلسفية أو ما يمكن  تسميتها (مسألةَ العربة)، وكان من المتوقَّع أن توفِّر بيانات تلك العملية رؤيةً ثاقبةً عن الأولويات الأخلاقية الجماعية من منظورِ ثقافات مختلفة.لم يتنبَّأ الباحثون آنذاك بالاستقبال الجماهيري الكبير لتجربتِهم، فبعد مرور أربع سنوات على إطلاقِ المنصّة؛ سجّل ملايين الأشخاص من (233 بلد وإقليم) 40 مليون قرار؛ ممَّا جعلها واحدةً من أكبرِ الدراسات التي أُجريت على الأولويات الأخلاقية العالمية.وتُقدِّم ورقة جديدة نُشرت في مجلةِ Nature تحليلًا لبياناتِ تلك التجربة، وتكشف مدى اختلاف الأخلاقيات بين الثقافات على أساسِ الثقافة والاقتصاد والموقع الجغرافي.تفترض مسألة العربة الكلاسيكية أنَّك تشاهد عربةً متحرّكةً تتابع طريقَها في إحدى السكك، ولكنَّها على وشكِ أن تضرب خمسةَ أشخاص وتقتلهم، ولا يوجد بين يديك الآن سوى رافعة لتغييرِ المسارات؛ إذا رفعتها سيتغيَّر سير العربة نحو سكَّة أخرى وتنقذ الأشخاصَ الخمسة، ولكنك ستقتل شخصًا آخر يمشي على تلك السكّة.. فماذا تختار؟! اعتمدت تجربة آلة الأخلاق في طيّاتِها على مسألةِ العربة تلك لاختبارِ تسع مقارنات مختلفة يمكن عن طريقِها تبيان استقطاب الناس، ونصَّت تلك المقارنات على ما يأتي: هل يجب على السيارة ذاتية القيادة أن تعطي أولويةَ الحياة للبشر أكثر من الحيوانات الأليفة.. ...

    أكمل القراءة »
  • تلفازك سيفهمك أكثر.. والفضل للذكاء الصنعي!

  • الخلود الرقمي؛ ستبقى حيًّا إلى الأبد.

  • أنظمة الذكاء الصنعي تستخدم المنطقَ لحلِّ المشكلات مثل الإنسان..!

  • مخدِّمات Google تبرد نفسها بنفسها.