يمكنهم إنشاء محتوى بناءً على مطالبات نصية بسيطة – لا يلزم أي ترميز.
طلبنا من Dall-E 2 من OpenAI تخيل الأشخاص الذين يقفون وراء الوظيفة العادية في أستراليا …
يمكنهم إنشاء محتوى بناءً على مطالبات نصية بسيطة – لا يلزم أي ترميز.
طلبنا من Dall-E 2 من OpenAI تخيل الأشخاص الذين يقفون وراء الوظيفة العادية في أستراليا …
المطالبة أعلاه بسيطة
“صورة لأسترالي”.
يبدو أن الخوارزمية تساوي “الأستراليين” بـ “البيض”
على الرغم من أن 3٪ من السكان هم من السكان الأصليين و / أو سكان جزر مضيق توريس و 28٪ ولدوا في الخارج ، منهم 5٪ فقط ولدوا في الهند أو الصين ، وفقًا لـ التعداد السكاني 2021 …
كما قدمت منظمة العفو الدولية لمحات عن الذكور لجميع المعلمين الأربعة
على الرغم من الأرقام الواردة من وكالة المساواة بين الجنسين في مكان العمل التابعة للحكومة الأسترالية والتي تبين أن 75 في المائة من المهنيين في مرحلة ما قبل المدرسة وقطاع التعليم هم من النساء.
كما لم يُظهر مبرمجو الكمبيوتر وسائقو سيارات الأجرة والنوادل والعاملون في رعاية المسنين أي اختلافات بين الجنسين في الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
ربما يكون الأكثر إثارة للدهشة
مع ذلك ، هو أن جميع الرؤساء التنفيذيين الأستراليين هم من الرجال – ليس فقط لأن WGEA يظهر أن ما يقرب من ربع (22٪) رؤساء الشركات من النساء ، ولكن أيضًا لأن OpenAI تستخدم مصطلح الرئيس التنفيذي عندما تعلن أنها مثال دقيق للمرأة ل . “تنفيذ تقنية جديدة لـ DALL-E لإنتاج صور للأشخاص تعكس بشكل أكثر دقة تنوع سكان العالم”.
وجاء في البيان
“عندما يُطلب من DALL-E وصف شخص من عرق أو جنس غير محدد ، يتم تطبيق التكنولوجيا على مستوى النظام”.
قال الدكتور سيباستيان سيكوياه-جرايسون من كلية علوم الكمبيوتر والهندسة بجامعة نيو ساوث ويلز
والذي صمم دورة أخلاقيات تكنولوجيا المعلومات ، إنه يجب علينا القلق بشأن نتائج أدوات الذكاء الاصطناعي مثل DALL-E 2 “بسبب ما تقوله عنا” ..
تبدأ مجموعات بيانات الذكاء الاصطناعي عادةً بتسمية البشر للصور بملصقات حتى تتمكن الخوارزمية من تعلم شيء ما.
وقال
“يتم تدريب الذكاء الاصطناعي على المجازات الثقافية التي أنشأناها كنوع”.
“تدفع سنتان لشخص ما للحصول على صورة لمعرفة ما إذا كان هذا الشخص يبدو ملتزمًا بالقانون أو كمدير تنفيذي ..
“نحن البشر هم من يتخذون تلك القرارات
ويتم تغذية مجموعة البيانات في نظام ، ويتعلم النظام كيفية عمل تنبؤات.
“[إذا اقتربت] من أشخاص من مختلف الأعمار
اعرض عليهم صورًا لأشخاص بيض يرتدون بدلات وأشخاصًا لا يشبهونهم ، وقل” اختر من تعتقد أنه يبدو كمدير تنفيذي “، أعتقد أن الكثير من الناس سيفعلون ذلك نفس الخيار. “
هناك العديد من الأمثلة على أدوات الذكاء الاصطناعي غير الأخلاقية أو المتحيزة.
عندما أطلقت Microsoft برنامج Tay bot في عام 2016
استغرق الأمر حوالي 24 ساعة للتعلم من Twitter لبدء التغريد المؤيد لهتلر ودعم جدار دونالد ترامب الذي يفصل الولايات المتحدة عن المكسيك.
وفي الوقت نفسه
وجدت ورقة بحثية أجريت عام 2018 حول تقنية التعرف على الوجه أن أداء الخوارزمية أسوأ على النساء ذوات البشرة الداكنة ، مع معدل خطأ أعلى بنسبة 34٪ من الرجال ذوي البشرة الفاتحة.
قالت الدكتورة سيكوياه-جرايسون إن أحد الشواغل الأخلاقية الرئيسية للذكاء الاصطناعي هو أن البشر يشعرون بمسؤولية أقل عن اتخاذ القرار.
وضرب مثالاً على الذكاء الاصطناعي في الولايات المتحدة
والذي يستخدم للتنبؤ بما إذا كان من المحتمل أن يعاود المجرمون الإساءة.
“لا نريد أن نعيش في مكان مثلنا
لماذا ذهب فلان إلى السجن لمدة 20 عامًا؟ “” أوه ، لا أعرف ، لكن منظمة العفو الدولية تقول إنه صحيح ، لذلك يجب أن يكون صحيحًا. “
قال: “حتى لو كانوا أكثر دقة من الجنود في ساحة المعركة
فمن المسؤول؟”
“هل نريد أن نعيش في مكان يتم فيه ضخ القرارات المتعلقة بالأهداف من نهاية الخوارزمية؟”.
في عام 2017
تم تطوير خوارزمية ادعت أنها يمكن أن تتنبأ بالتوجه الجنسي للشخص من صورة واحدة.
سواء كانت دقيقة أم لا
قالت الدكتورة سيكوياه-جرايسون إن عواقب استخدام مثل هذا الذكاء الاصطناعي ستكون “وخيمة”.
وقال “لن يمر وقت طويل قبل أن يصبح (التعرف على الوجه) متاحًا على هواتف الناس ويتم تنزيله كتطبيق”.
“يمكنك أن تتخيل أطفالًا يركضون مع” خوارزميات الكشف عن المثليين “على هواتفهم – إذا رأيت أطفالًا من قبل ، فأنت تعرف ما يمكن توقعه.”
💡 مصادر ومراجع
“news.com.au” ، من: هل يمكنك تحديد المشكلة في صور العمال الأستراليين؟ ..