قامت Meta بتطوير ذكاء اصطناعي جديد لديه ميل نحو اللغة العنصرية - أخبار و نصائح للمدونين قامت Meta بتطوير ذكاء اصطناعي جديد لديه ميل نحو اللغة العنصرية - أخبار و نصائح للمدونين

قامت Meta بتطوير ذكاء اصطناعي جديد لديه ميل نحو اللغة العنصرية

قامت Meta بتطوير ذكاء اصطناعي جديد لديه ميل نحو اللغة العنصرية

كشفت Meta مؤخرًا عن أداة جديدة تم إنشاؤها لأغراض تطوير برامج الذكاء الاصطناعي بسرعة وكفاءة. مع ذلك ، هناك مشكلة واحدة فقط: يبدو أن الأداة لديها ميول عنصرية إليها.

من المتوقع تقريبًا أن الذكاء الاصطناعي ، أو حتى أنظمة تطوير الذكاء الاصطناعي التي تم بناؤها من قبل البشر ذوي التحيز المتأصل ، ستعكس في النهاية بعض أشكالها. إنها المغالطة المطلقة للآلات: لا يوجد نظام في العالم يمكن أن يخلو حقًا من الخطأ والتحيز ، خاصة وأن الاقتباس غير المقتبس من العناصر "غير الطبيعية" مثل الأجهزة التكنولوجية يصنعها في النهاية كائنات "طبيعية" غير كاملة. ونعم ، هذا فلسفي كما أنوي الحصول على موضوع التكنولوجيا ؛ الآن نعود إلى أعمالنا برمجة مواعيد منتظمة. من المثير للاهتمام أن نلاحظ ، مع ذلك ، أن هذه هي المرة الثانية في السنوات القليلة الماضية التي صادفنا فيها ذكاءً اصطناعيًا عنصريًا يتم توظيفه من قبل منصات وسائل التواصل الاجتماعي ، والذي في حد ذاته يبدو وكأنه ظاهرة لا ينبغي أن يحدث أي منهما مرتين أو كان ينبغي أن يحدث عدة مرات أكثر من ذلك.

المثال الذي يدور في ذهني هو أحد نماذج الذكاء الاصطناعي التي يتم تغيير حجمها في صورة Twitter. قرر النظام الأساسي للنصوص القصيرة (وهو اسم فرقة مستقلة إذا سمعت من قبل) استخدام خوارزمية من شأنها تغيير حجم الصور تلقائيًا التي لا تتناسب مع العرض الأساسي لتويتر ، مما يوفر على المستخدمين جهد تحرير الصور في وقت مبكر. ومع ذلك ، سرعان ما اكتشف المستخدمون أنه إذا تم نشر صور لمجموعة أكبر من الأفراد ، فإن الأقليات مثل السود يستمرون في اقتصاصها من الصورة. حتى أن بعض المستخدمين أجروا اختبارات مع هذا ، للاتفاق بشكل قاطع على أن الذكاء الاصطناعي بدأ بشكل مباشر في تجاهل المستخدمين غير البيض. لذا ، لنكن واقعيين: هناك فرصة ضئيلة أن المطورين كانوا يحاولون بنشاط جعل تقنيتهم ​​عنصرية ، على الرغم من معتقداتهم الشخصية. ومع ذلك ، فإن هذا يوضح مدى فعالية التحيز العنصري في كل شق اجتماعي ؛ ربما تم تدريب الذكاء الاصطناعي على قاعدة بيانات للصور للرجوع إليها ، وربما كانت تلك الصور تحتوي على الكثير من الأشخاص البيض فيها لأن القنوات الإعلامية لم تكن فائقة التطور في إظهار الأقليات الأخرى باستثناء تسجيل نقاط التنوع بين الحين والآخر. هذا ، بالطبع ، تخميني ، وأنا على استعداد لتعلم السبب الحقيقي. وجهة نظري ، ومع ذلك ، لا تزال قائمة.

نظام Meta الجديد ، المسمى OPT-175B ، كان ممتعًا بما يكفي بسبب ميوله الأقل دقة من قبل الباحثين التابعين للشركة. في تقرير مصاحب لإصدار اختبار النظام ، تم توضيح أن OPT-175B لديها ميل لتوليد لغة سامة تعزز الصور النمطية الضارة عن الأفراد والأعراق. أعتقد أن Meta أراد البقاء في الطليعة في هذا المجال ، ولا يزال الباحثون يعملون على حل مشكلات منشئ الذكاء الاصطناعي الجديد.

Next Post Previous Post
No Comment
Add Comment
comment url