كشفت تحقيقات صحفية حديثة عن واقع مرير في صناعة الذكاء الصناعي، والتي تبلغ قيمتها مليارات الدولارات، إذ تعتمد بشكل ممنهج على استغلال البشر. وفي حين تتباهى الشركات التقنية بنماذج اللغة الكبيرة (LLMs) التي تقدم إجابات سلسة في ثوان، يغيب عن الأذهان أن هذه الأنظمة "الذكية" تبنى على أكتاف جيش من العمال المهمشين الذين يعملون في صمت.
وفقا للتحقيقات، يعتمد تطور هذه التقنيات الحديثة، بشكل أساسي، على آلاف العمال المنهكين في دول العالم الفقير الذين يعملون ساعات طويلة بأجور زهيدة لتدريب أنظمة الذكاء الصناعي، بينما يتعرضون يوميا لمحتوى عنيف وصادم.
أظهرت وثائق مسربة من إحدى كبرى شركات "تصنيف البيانات" - وهي عملية وضع العلامات والتعليقات على النصوص والصوتيات ومقاطع الفيديو لتدريب الخوارزميات- كيف تتخذ قرارات مصيرية في أخلاقيات الذكاء الصناعي مع عمال متعاقدين في دول؛ مثل: الفلبين وباكستان وكينيا والهند، بينما تتحكّم شركات التكنولوجيا العملاقة من خلف الكواليس.
توضح الوثائق كيف يقضي آلاف العمال ساعات طويلة في تصنيف المحتوى، وتدقيق الإجابات وتحديد ما هو "مقبول" أو "مرفوض". وهؤلاء العمال، والذين يعملون عبر منصات العمل الحر، يواجهون ظروفا قاسية تتراوح بين الأجور الزهيدة التي لا تتجاوز دولارين في الساعة، والضغوط النفسية الناتجة عن التعرض المستمر لمحتوى عنيف أو مسيء أو خطاب كراهية، فضلا عن الرقابة الصارمة من المشرفين.
هذا؛ وكشفت مجلة "إنك" (Inc) مؤخرا الوثيقة السرية التي تعود لشركة "سيرج إيه آي" (Surge AI)، وهي إحدى كبرى شركات "تصنيف البيانات" التي تعمل وسيطا بين عمال التصنيف وشركات التكنولوجيا العملاقة مثل "أنثروبيك" (Anthropic) المطورة لروبوت الدردشة "كلود" (Claude).
تتضمن الوثيقة، والتي جرى تحديثها في يوليو/تموز 2024، إرشادات عن كيفية التعامل مع مواضيع حساسة، مثل النصائح الطبية والمحتوى الجنسي وخطاب الكراهية والعنف. وتكشف الوثيقة المهام المعقدة التي يتحملها هؤلاء العمال الذين يعيش كثير منهم تحت خط الفقر، مثل تحديد ما إذا كان ينبغي للروبوت الرد على أسئلة مثيرة للجدل؛ فهم من يحددون ما إذا كان الروبوت سيجيب عن سؤال عن المثلية الجنسية، أو كيف يتعامل مع استفسارات عن العنف، أو ما الحدود الفاصلة بين النكتة المقبولة والخطاب المهين.
تتطرق الوثيقة إلى مواضيع صعبة. على سبيل المثال، لا يفترض بالمبادئ التوجيهية تشجيع أي شيء "غير قانوني" - وهو تعريف غامض نظرا لاختلاف القوانين الدولية- لكن يسمح بوصف النشاط الإجرامي بطريقة تحليلية.
على سبيل المثال، تشير "إنك" إلى أن روبوت الدردشة المذكور في الوثيقة يجب ألا يجيب عن سؤال مثل: "كيف أقتحم مبنى مكتبي؟"، لكنه مسموح له تماما تقديم "شرح عام ومبسط عن كيفية تجنب الحراس والبحث عن مداخل غير مؤمنة". وتنطبق شروط مماثلة على موضوعات مثل الأسلحة ثلاثية الأبعاد.
الأكثر إثارة للقلق أن هذه القرارات المصيرية، والتي تشكل وعي الذكاء الصناعي وضميره الأخلاقي، تتخذ في غياب أي إطار قانوني أو حماية كافية للعمال؛ فبينما تحقق الشركات التقنية أرباحا خيالية، يظل العمال الأساسيون في هذه المعادلة عرضة للاستغلال، ويعملون في ظروف تنعدم فيها الشفافية وتفرض عليهم رقابة صارمة.
هذا النظام يطرح أسئلة وجودية حيال مستقبل الذكاء الصناعي: كيف يمكن لنماذج تدربها أيدي مستغلة أن تكون عادلة؟، وما مدى مصداقية أنظمة تبنى على أساس الظلم البشري؟.
كما تكشف الوثيقة المسربة أن ما نراه من ذكاء خارق هو في الحقيقة مرآة تعكس تحيزاتنا وأزماتنا الاجتماعية، مصفاة عبر شاشات حواسيب عمال يعملون في الظل.
علقت "سيرج إيه آي" بأن الوثيقة "قديمة وتستخدم لأغراض بحثية"، مشيرة إلى أن الأمثلة فيها "متعمدة الاستفزاز لتدريب النماذج على تمييز المحتوى الخطير". لكن الحقيقة تبقى أن الذكاء الصناعي، مع تطوره، ما يزال يعتمد على عمالة بشرية مهمشة لتحديد حدوده الأخلاقية.