تتطرق نايلة الصليبي في "النشرة الرقمية" إلى المسألة الأخلاقية التي تطرحها قضية تثقيف وتهذيب خوارزميات الذكاء الاصطناعي، بعد كشف تقرير لمجلة "تايم" الأمريكية عن استخدام شركة OpenAI عمال الكينيين بأقل من دولارين في الساعة لجعل ChatGPT اقل أذية.
العالم مشغول بقدرات النموذج الذكاء الاصطناعي للمحادثة ChatGPT، الذي تطوره OpenAI.كثير يستخدمونه مع أدوات أخرى لتسهيل عملهم. عدا عن الجدل الذي يثيره من استخدام الطلاب له في تحضير فروضهم.
بالرغم من الهفوات القليلة في بعض الإجابات غير الدقيقة، غير أن الاختبارات الأخرى أظهرت إمكانات مذهلة لـ ChatGPT. ولكن بعد الذهول العام بقدرات ChatGPT، بدأت تخرج إلى العلن الخفايا المظلمة لكيفية تطوير وتعليم وتثقيف GPT-3 و ChatGPT و أيضا أدوات الذكاء الاصطناعي المنافسة.
فقد كشف تقرير لمجلة "تايم" الأمريكية أن شركة OpenAI من أجل "تثقيف" الذكاء الاصطناعي، وجعله اقل إيذاء أو less Toxic حسب التقرير، وضعت آلية أمان إضافية شبيهة بما تقوم به شركة فيسبوك، حيث لجأت OpenAI إلى خدمات شركة كينية لتثقيف ولتهذيب ChatGPT، قبل أن تجرؤ على طرحه للجمهور؛ أي استخدام مئات الموظفين بأجور بخسة وساعات عمل طويلة و تأثير نفسي ضار، للإشراف على ملايين البيانات لتهذيب الذكاء الاصطناعي.
لماذا الحاجة لتهذيب نموذج الذكاء الاصطناعي للمحادثة ChatGPT أو غيره من أدوات الذكاء الاصطناعي ؟
لأن هذا النموذج و غيره من نماذج الذكاء الاصطناعي يدرب على مئات المليارات من الكلمات و البيانات المستخرجة من الإنترنت web scraping. يمكن أن نتخيل ما تحتويه البيانات الضخمة هذه من كم هائل من محتوى عنيف ومتحيز وعنصري وخطاب يحض على الكراهية. والسبب أيضا بالنسبة لـ ChatGPT أن نموذج GPT-3، الذي يعمل على أسسه ChatGPT، أظهر في الماضي قدرة هائلة في إبداء ملاحظات عنيفة ومتحيزة جنسيًا وملاحظات عنصرية. لذا كانت الضرورة تصحيح تعلم الذكاء الاصطناعي لإنشاء ذكاء اصطناعي معتدل لـ ChatGPT.
فكان على مئات الموظفين الذين يعملون بأجور بخسة ولساعات عمل طويلة في الشركة الكينيةSama مراجعة مجموعة هائلة من البيانات أرسلتها لهم OpenAI.تحتوي هذه البيانات على كلمات مروعة و مؤذية، بما في ذلك روايات عن الاعتداء الجنسي على الأطفال، والقتل، والانتحار، أو حتى التعذيب.
أُطلق على موظفي شركة Sama الكينية اسم "عمال النقر"، فهم مجموعة من العمال غير مرئيين، تثري البيانات، مجموعة مخفية تحت شعار الابتكارات التقنية.
لهؤلاء العمال دور حيوي إلى جانب عالم البيانات، ومهارات مهندسي البيانات، فهم يتعرضون للأذى النفسي في أثناء مشاهدة ومراجعة النصوص العنيفة والمتحيزة دون أي تعويض، فرواتبهم تتراوح بين دولار ونصف ودولارين في الساعة.
أوقفت الشركة الكينية عقدها مع OpenAI بحجة حماية موظفيها، وصرفت معظم العاملين في الإشراف على محتوى تثقيف ChatGPT، دون تعويضات.علما أن هذه الشركة كانت تتعامل أيضا مع فيسبوك لتدريب خوارزميات الإشراف على المحتوى على منصة فيسبوك.
نذكر حينها كيف كشف تقرير عن تعرض الموظفين المشرفين على تدريب خوارزميات فيسبوك لأزمات نفسية حادة نتيجة المحتوى العنيف السام والمتحيز.
يقول أندرو سترايت، خبير أخلاقيات الذكاء الاصطناعي، إن "حاجة البشر إلى تصنيف البيانات لأنظمة الذكاء الاصطناعي لا تزال قائمة، وأن ChatGPT والنماذج التوليدية الأخرى ليست سحرية، فهي تعتمد على أعداد هائلة من العمالة البشرية والبيانات المستخرجة من الإنترنت web scraping".
يشير أندرو سترايت إلى أن "هذه البيانات لا تنسب إلى أصحابها وتستخدم من دون موافقة. وهي من المشكلات الأساسية التي لا تعالجها شركة OpenAI وغيرها من شركات الذكاء الاصطناعي".
For 6 years, I did content moderation work at a large tech company. This work can be incredibly emotionally and mentally damaging.
— Andrew Strait agstrait@someone.elses.computer (@agstrait) January 18, 2023
This trauma, often outsourced to low paid workers, is the hidden price of these products. I get the excitement, but that must be acknowledged. https://t.co/b10UGf2DsZ
يثير عدم احترام حقوق التأليف والطبع والنشر وحقوق الاستخدام للبيانات والمعلومات المستخرجة من الإنترنت، وطلب موافقة المؤلفين على استخدام أعمالهم. يثير مسألة قانونية كبيرة. فعلى سبيل المثال تهدد مؤسسة Getty Images، إحدى أكبر مكاتب الصور في العالم، بمقاضاة Stability AI. شركة منافسة لـ OpenAI بتهمة "نسخ ومعالجة ملايين الصور المحمية بحقوق الطبع والنشر والبيانات الوصفية المرتبطة بها بشكل غير قانوني".
كذلك هنالك إجراء قانوني جماعي class action يعتبر أن الذكاء الاصطناعي التوليدي يدربمن ملايين الأعمال المقرصنة. ويطالب الإجراء القانوني الذي أطلقه مجموعة من الفنانين بتعويضات من Stability AI، وشركة الخدمات Stable DiffusionوMidjourney ومنصة DeviantArt.
هذا هو الوجه الأخر المظلم لـ ChatGP واقرانه من أدوات الذكاء الاصطناعي.
يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل
للتواصل مع #نايلةالصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@ وعلى ماستودون وعبرموقع مونت كارلو الدولية مع تحيات نايلة الصليبي
الرسالة الإخباريةأبرز الأحداث الدولية صباح كل يوم
اشترك