• الصفحة الرئيسية
  • مقالات
  • AMI Residency الجزء 1: استكشاف الفضاء (كلمة) ، إسقاط المعنى على الضوضاء ، وتعلم مقابل التحيز البشري.
نشر على ١٥-٠٨-٢٠١٩

AMI Residency الجزء 1: استكشاف الفضاء (كلمة) ، إسقاط المعنى على الضوضاء ، وتعلم مقابل التحيز البشري.

المرأة لديها المهبل ، والرجال لديهم الخياشيم

هذه هي الثانية من سلسلة من المقالات [1 ، 2 ، 3] ، حول الأبحاث التي أجريتها على مدار السنوات القليلة الماضية ، والتي لم أكن أتحدث عنها إلا للكتابة عنها. في أيار / مايو - حزيران / يونيو 2016 ، كنت مقيمًا في برنامج فنانين Google وذكاء الآلات. لقد قمت باستكشاف بعض الموضوعات ذات الصلة ، مع مخرجات منفصلة. لذلك سأكتب عن ذلك في وظيفتين. هذا هو أول هؤلاء.

الروابط المتعلقة بهذا المنشور:
-wordofmath ،wordofmathbias ،almost_inspire
- الثعبان و / / C ++ src في https://github.com/memo/ofxMSAWord2Vec
- (لا توجد ورقة مرتبطة بهذه المقالة)

المقدمة

يمكن أن يكون استكشاف المساحة الكامنة أمرًا رائعًا للغاية. كتبت سابقا عن ذلك في العمق هنا. لتقصير قصة طويلة جدًا ، يمكن اعتبار مساحة كامنة كمسافة ذات أبعاد عالية تمثل فيها نقطة واحدة مثيلًا واحدًا أو عينة واحدة من البيانات. الأهم من ذلك ، يمكن أن نحاول بناء هذه المساحة الكامنة بحيث من الناحية المثالية تلتقط نوعًا من العلاقات الدلالية ذات الدلالة ، على سبيل المثال حتى نتمكن من إجراء عمليات هندسية على نقاط لتحويلها ، أو التحرك في اتجاهات معينة لمعالجة البيانات بطريقة مجدية ، على سبيل المثال لإضافة نظارات إلى وجه ، أو جعل ابتسامة وجه وما إلى ذلك.

يمكن اعتبار بعض جوانب تعلم الآلة (ML) بمثابة وظائف تعليمية تقوم بتعيين من مجالات المدخلات والمخرجات (مثل البكسلات الأولية) إلى مثل هذه المساحات الكامنة. ويمكن اعتبار نقل البيانات عبر شبكة عصبية عميقة بمثابة رحلة عبر أبعاد وتحولات متعددة في الفضاء (والوقت).

كلمة حفلات الزفاف

تعتبر زخارف الكلمات (أو متجهات الكلمات) مفهومًا مشابهًا يطبق على الكلمات. يمكن للمرء أن يأخذ مفردات اللغة (على سبيل المثال ، 20،000 كلمة ، و 50000 كلمة ، و 100،000 كلمة وغيرها) وتخطيطها كنقاط في مساحة تعسفية عالية الأبعاد.

هناك عدد قليل من الخوارزميات الثابتة التي تقوم بذلك ، خاصة Word2Vec و GloVE. هذه هي خوارزميات تعلم تمر بمجموعة هائلة من النصوص (على سبيل المثال 100 مليار كلمة) ، وتتعلم كيفية وضع الكلمات في مساحة عالية الأبعاد (على سبيل المثال 300D) ، بحيث تكون هناك علاقات معقدة وذات مغزى وذات مغزى بين الكلمات. إن الكلمات المرتبطة بالمعنى ليست فقط قريبة من بعضها البعض ، ولكن الاتجاهات والمسافات التي يتم تنظيمها تعني شيئًا ما.

Mikolov، T.، Corrado، G.، Chen، K.، & Dean، J. (2013). تقدير كفاءة تمثيلات الكلمات في مساحة المتجهات. وقائع المؤتمر الدولي للتمثيلات التعليمية (ICLR 2013)

وهكذا يمكننا أن نشتهر بعمليات الرياضيات على الكلمات. يمكنك أن ترى في الصورة اليسرى أن المتجه من كلمة "الملك" إلى "الملكة" يشبه إلى حد كبير المتجه من "الرجل" إلى "المرأة" (ملاحظة: هذا إسقاط من المساحة الكامنة الأصلية 300D إلى ثلاثي الأبعاد ، إلى 2D لأغراض التصور). أو في الواقع فإن المتجه من "الرجل" إلى "الملك" يشبه إلى حد كبير المتجه من "المرأة" إلى "الملكة". لذلك يمكننا بالفعل إضافة المتجه من "رجل" إلى "ملك" (أي "ملك" - "رجل") إلى ناقل "المرأة" ، وينتهي بنا المطاف بنقطة جديدة في هذه المساحة الكامنة 300D. إذا بحثنا عن أقرب كلمة لهذه النقطة ، فسنجد أنها "ملكة" (في الواقع هذا ليس دقيقًا تمامًا ، وأكثر في هذا لاحقًا).

كلمة النظائر

يمكننا كتابة هذا كمثال word2vec الشهير:
ملك - رجل + امرأة => ملكة

يُعرف هذا أيضًا باسم Word Analogy ، وغالبًا ما يتم كتابته باستخدام بناء الجملة:
الرجل: الملك :: المرأة: [ملكة]
(اقرأ على النحو التالي: "الرجل هو الملك كما هي المرأة؟" ويعود النموذج "الملكة")

وبالمثل ، فإن المتجه من "المشي" إلى "المشي" يشبه إلى حد كبير المتجه من "السباحة" إلى "السباحة". يبدو أن النموذج يتعلم الأزمنة أيضًا. أيضا علاقات رأس المال القطري ، على سبيل المثال قارن المتجهات من "إسبانيا" إلى "مدريد" و "إيطاليا" إلى "روما" إلخ.

الأهم من ذلك ، لا يتم فرض هذه العلاقات صراحة من قبل البشر أثناء التدريب. يتم تعلمهم ، بطريقة غير خاضعة للرقابة من مجموعة التدريب. تتكرر خوارزمية التعلم من خلال النص ، وتلتقط أنماطًا حول كيفية ترتيب الكلمات في جمل وعبارات ، ومن خلالها تتحدث عن كيفية تعيين المتجهات.

تذكر أيضًا أن المخططات أعلاه هي إسقاطات في مساحة ثلاثية الأبعاد (مسقطة في مساحة ثنائية الأبعاد) ، حتى نتمكن من عرضها. في الواقع ، تبلغ هذه المساحة الكامنة 300D ، لذا فهي تجسد علاقات أكثر بكثير في اتجاهات لا يمكننا حتى أن نتخيلها. ومن يدري ماذا يتعلم.

لذلك كتبت بضع روبوتات تويتر لاستكشاف هذه المساحة.

WordOfMath

ينفذ هذا الروبوت عمليات رياضية عشوائية على كلمات عشوائية ويغرد النتائج.

يتم أولاً اختيار ما بين 2 إلى 4 كلمات عشوائية تمامًا من مفردات مكونة من 100 ألف كلمة (في الواقع إنها عبارة عن 53 ألف كلمة ، والأسباب الموضحة في المصدر. لاحظ أنه يقدر أن الناطقين باللغة الإنجليزية المتعلمين لديهم مفردات من حوالي 20 إلى 30 ألف كلمة). يرسم الروبوت هذه الكلمات في مساحة كامنة عالية الأبعاد (باستخدام نموذج word2vec الشهير الذي دربه Mikolov et al على 100 مليار كلمة من أخبار Google). ثم ينفذ عمليات حسابية عشوائية (الجمع أو الطرح) على هذه المتجهات. ينتج عن هذا موقع جديد في مساحة عالية الأبعاد. روبوت ثم إرجاع أقرب الكلمات.

https://twitter.com/wordofmath

أي. "إنسان" - "إله" = "حيوان" يعني أن الروبوت قد اختار عشوائيًا الكلمات "إنسان" و "إله" ، وقررت بشكل عشوائي إجراء عملية الطرح. إنه يطرح المتجه لـ 'god' من الموجه لـ 'human' ، ويجد ويغرد على أقرب كلمة إلى هذه النقطة ، في هذه الحالة 'animal' (في الواقع ، تغرد في أقرب خمس كلمات ، هنا أنا فقط اختار بعض من نتائجي المفضلة).

أعلاه ، يمكنك رؤية بعض النتائج الأصلية الكاملة وغير الملوثة. لكن يجب أن أشير إلى أن هناك المئات (إن لم يكن الآلاف؟) من النتائج ، وقد اخترت بعض الكميات المفضلة لدي. (لم أكن قد بحثت عنهم جيدًا جميعًا ، فقد يكون هناك الكثير منهم مثير للاهتمام).

في البداية كنت أقوم برعاية وأحاول فرض قواعد على الكلمات التي يجب أن ينتخبها الروبوت ، بحيث تكون النتائج "أكثر عقلانية" وإثارة للاهتمام. ولكن في ذلك ، أدركت أنني كنت أقيد فعليًا قدرة الروبوت على إيجاد نتائج أكثر إبداعًا (وربما أكثر إثارة للاهتمام أو غير متوقعة). لذا أزلت أي قيود فرضتها ، وأدع الروبوت يستكشف المساحة بحرية أكبر. إنه ينتج الآن نتائج غالبًا ما تكون غير منطقية ، وأحيانًا يكون من الصعب فهمها.

وفي الحقيقة هذا ما انتهى إليه هذا المشروع.

لا يتعلق الأمر بما يخبرنا به النموذج ، ولكن ما نبحث عنه ونراه في النتيجة.

يمكن العثور على طن من الأمثلة على تويتر. في ما يلي بعض الخيارات التي اخترتها. بعض الأمثلة القليلة الأولى ربما تكون سهلة التفسير.

إله إنسان = حيوان

هذا مثير للاهتمام. يمكن تفسيره على أنه: "إذا لم يكن لدينا / نؤمن بالله ، فسوف ننحدر إلى مستوى الحيوانات البدائية" أو بدلاً من ذلك: "ما يميز البشر عن غيرهم من الحيوانات ، هو أننا خلقنا على صورة الله ". أو ربما: "البشر مجرد حيوانات ، اخترعت الأديان والمعتقدات بالله" إلخ.

ربما يكون هناك العديد من الطرق الأخرى لتفسير ذلك ، وسأكون فضوليًا لسماع بعض الأفكار الأخرى. ولكن الحقيقة هي ، لا أعتقد أن هذا يعني أي من هذه الأشياء. لأنه لا يوجد أحد وراء هذا القول ، لإعطائه أي معنى. إنها مجرد ضوضاء ، شكلها مرشح ، ثم نعرض ما نريده عليه. إنها مجرد نقطة انطلاق بالنسبة لنا لتشكيل ما نريده ، بوعي أو بغير وعي.

قد يختلف البعض ويقولون إن النموذج قد تعلم من مجموعة النص الضخمة التي تدرب عليها ، وأن هذا المصنّع الذي ينتج عن النموذج يحمل المعاني المضمنة في الجسم. هذا صحيح بالطبع إلى حد ما ، ويمكن التحقق من ذلك مع الأمثلة الواردة في وقت سابق ، مثل king-man + woman = queen ، أو walk-walked + swam = swimming. بالتأكيد ليس من قبيل الصدفة أن يعود النموذج بمثل هذه النتائج ذات مغزى في تلك الحالات؟

يبدو أن النموذج قد تعلم شيئًا ما. لكن عندما نبدأ في دفع حدود النموذج ، فمن الأفضل إذا قاومنا إغراء القفز إلى الاستنتاجات فيما يتعلق بما تعلمه النموذج مقابل النتائج التي قد تكون "شبه عشوائية" ، مع استكمال عقولنا بقية الصورة . أنا لا أقترح أن هناك نقطة فاصل فيما يتعلق بموعد توقف النموذج عن منطقه ويبدأ في توليد نتائج عشوائية. إنه أكثر من طيف. فكلما ابتعدنا عما يعتبره النموذج "مريحًا" (أي لقد شهدنا وفرة أثناء التدريب ، وتعلمنا وقادرنا على التعميم) ، كلما زادت الضوضاء ذات الأهمية في الإخراج (أي نسبة الإشارة إلى الضوضاء المنخفضة) ، وربما أكثر خصوبة الناتج عن تفسيراتنا المتحيزة.

سأوسع في هذا بمزيد من التفصيل في وقت لاحق قليلا. ولكن أولا بعض الأمثلة أكثر.

الطبيعة - الله = الديناميات

أنا أحب هذه بالتحديد. أفسر ذلك على أنه "بدون الحاجة إلى الله ، فالطبيعة هي مجرد قوانين فيزياء".

تويتر + بوت = الميمات

لم أصدق هذا عندما رأيته. لا يحتاج إلى أي تفسير تقريبًا. "الروبوتات على تويتر تصبح الميمات". جيدة جدا ليكون صحيحا.

الجنس - الحب = الجماع ، العادة السرية ، الدعارة ، الاغتصاب

هذه هي واحدة قوية. أفسر ذلك على أنه "الجنس بدون حب هو مجرد جماع" ، أو "الدعارة ممارسة الجنس بدون حب" ، أو "الاغتصاب ينطوي على ممارسة الجنس والكراهية (على عكس الحب)". هذه النتائج مثيرة جدا للاهتمام. لكن مرة أخرى ، لا ينبغي افتراض أن النموذج يتعلم هذا التفسير المحدد من بيانات التدريب. في معظم الحالات ، كل هذه الكلمات موجودة في مكان ما بالقرب من "الجنس" و / أو "الحب" ، لأنها كلها كلمات مرتبطة. ونعم ربما تكمن هذه الكلمات في اتجاه معين من "الحب" أو "الجنس". ولكن هناك فرق بين مجموعة من الكلمات التي يتم وضعها في الفضاء ، والجملة "ممارسة الجنس دون حب هي الجماع أو الدعارة ...". هذا الأخير هو تفسيري للتخطيط المكاني.

السلطات - فلسفة = الشرطة والحكومات

يجب أن أدفع إبداعي حتى أتمكن من فهم هذا. أسأل نفسي "إذا فكرنا في الفلسفة كعمل تفكير ، ومنطقية ونقدية ؛ ثم ربما تقول هذه الجملة أن الشرطة والحكومات هي سلطات لا تفكر ، وليست منطقية؟ ". أو بعبارة أخرى "ما هي أنواع السلطات التي تفتقر إلى التفكير النقدي؟ الشرطة والحكومات ".

لحية - مبررة - فضاء + عقيدة = لاهوت، واعظ

هذا واحد يدفع حدود إبداعي إلى أبعد من ذلك. لكن لا يزال بإمكاني إيجاد معنى إذا حاولت جاهدة. مثلا دعنا نفترض أن اللحية تقليديا وستيريو عادة ما تعني الحكمة. تخيل أن اللحية غير مبررة ، أي أنها تدعي أنها تدل على الحكمة ، لكنها في الحقيقة ليست كذلك. في الواقع ، تحل هذه اللحية بعينها محل الفضاء (الذي أفترض أنه يمثله "الكون" و "المعرفة" و "العلم") بالعقيدة. أين يمكن أن نجد مثل هذه اللحية ، ونتظاهر بأنها حكيمة ، ولكن مع استبدال العلم بالعقيدة؟ في اللاهوت بالطبع ، على سبيل المثال واعظ.

بالطبع ، أنا أحاول جاهداً أن أقوم بتثبيتها مربعة في حفرة مستديرة ، وأحاول أن أفهم هذه الجملة "شبه العشوائية" التي خرج منها النموذج. لن أتفاجأ إذا تمكن شخص ما من تفسير هذه الجملة على أنها تعني العكس تمامًا للطريقة التي اخترتها لتفسيرها.

إسقاط معنى على الضوضاء

ومع ذلك ، أجد هذه النتائج رائعة إلى ما لا نهاية. ليس لأنني أعتقد أن هذا النموذج لديه فهم قوي للغة الإنجليزية ، ولكن لأنه بمثابة نوع من "مرشح المعنى".

ما يدور في النموذج هو عشوائي تمامًا (أي الكلمات والعمليات الحسابية التي يختارها الروبوت). أو لتكون أكثر دقة مع لغتي ، فكر في الأمر كضجيج بتوزيع موحد ، ضجيج أبيض.

ربما لا يوجد هنا الكثير من المواد لتتفهم وتكتب القصص حولها؟ إنه إلى حد بعيد لائحة فارغة.

ثم يطبق النموذج مرشحًا فعالًا على هذا الضجيج ، ينحني ، ويشكل ، ويخرج نوع جديد من الضوضاء.

https://en.wikipedia.org/wiki/File:Rorschach_blot_01.jpg

بعبارات أعم ، أرى أن هذه المساحات الكامنة هي طرق لإنشاء مجموعات الحبر على غرار Rorschach لنطاقات مختلفة ، على سبيل المثال الكلمات والصور والأصوات والنصوص وما إلى ذلك ، يتم إدخال الأرقام أو العمليات العشوائية (أي الضوضاء البيضاء) في النموذج ، ويتم عرض المزيد من النتائج "المنظمة العشوائية". لا يزال "عشوائيًا" ، ولكن مع توزيع أكثر تحديدًا ، هيكل أكثر. مع وجود ما يكفي من البنية لكي نكون قادرين على رؤية الأشياء فيها ، وإظهار معنى المشروع.

ونحن آلات تتوق للهيكل ، ونعرض عليها معنى. لأن هذا هو ما نفعله. هذا ما فعلناه دائمًا. هذه هي الطريقة التي نعيش بها في البرية ، وكيف نتواصل مع بعضنا البعض. نحن نخترع القصص ونصنع الأشياء ونؤمن بها. نحن نبحث عن الانتظام ونعرض له معنى على أساس ما نحن عليه وما نعرفه.

كل ما نراه ، أو نقرأ ، أو نسمع ، حتى هذه الجمل التي أكتبها الآن ، تحاول أن تفهمها فيما يتعلق بتجاربك السابقة ، والتي تمت تصفيتها حسب معتقداتك السابقة ومعرفتك.

في بعض الأحيان - كما في حالة هذه الكلمات في هذه الصفحة - يمكن القول أن هناك معنى مقصود مضمّن في قطعة أثرية. هذا هو المعنى الذي يفرضه مؤلف ، مثلي ، منتج القطع الأثرية - مضمن باستخدام لغة مشتركة وطريقة الاتصال والسياق (مثل الأبجدية اللاتينية واللغة الإنجليزية وغيرها). في هذه الحالة ، نأمل أن تفسر المعنى المضمن كما قصدته. ستستخدم ذلك كنقطة بداية ، ثم تقترن بالمعتقدات التي تحملها بالفعل داخل نفسك ، ستأخذ رسالة نأمل أن تتماشى إلى حد ما مع معاني المقصودة. لكن بالطبع ربما لا ، من السهل للغاية الدخول في خلافات بسبب الاتصالات الغامضة. فقط أسأل ريتشارد دوكينز.

لكننا ما زلنا قادرين على إيجاد معنى حتى في الأماكن التي لا يوجد فيها دائمًا معنى مقصود أو مضمّن ، أو في الحقيقة لا يوجد كاتب مؤلف. مثل عندما نرى وجوه في السحب ، أو الناس المقدسة في الخبز المحمص. أو حتى مثل العديد من الأساطير والقصص المختلفة التي اخترعتها العديد من ثقافات العالم المختلفة ، عند النظر إلى النقاط المضيئة التي تزين سماء الليل.

هذا ما أحببته في Deepdream عندما صدر العام الماضي. ليس أنها أنتجت جرو الرخويات trippy والسحالي الطيور. ولكن هذا الأمر استغرق ضجيجًا ، وشوهه بما يكفي حتى نبدأ في إظهار معنى له ، لاكتشاف وتفسير سمات شبيهة بالجرو ، تشبه الدوداء ، تشبه الطيور - تمامًا كما فعلت الخوارزمية نفسها.

لقد كتبت منشورًا أطول عن الحلم العميق في سياق مجموعة الأفكار هذه (هنا) ، فيما يلي ملخص للبت ذات الصلة:

عندما ننظر إلى هذه الصور الناتجة عن الحلم العميق ، فإننا نقول "يا إنها جرو ، أو سحلية طيور". ولكن في الواقع ، لا يوجد شيء من هذا القبيل. لا توجد الطيور أو السحالي أو الجراء أو الرخويات في هذه الصور. هناك فقط الطيور مثل * ، جرو * مثل * ، سبيكة - * مثل * الميزات. تتعرف الشبكة العصبية الاصطناعية بشكل غامض على تلك الميزات الموجودة في الصورة الأصلية ، حيث تطلق الخلايا العصبية الاصطناعية المقابلة ، ولكن بشكل ضعيف ، وفي مكان ما في عمق المساحة الكامنة. تقوم خوارزمية deepdream بتعديل الصور لتضخيم تلك الحرائق. ثم * نحن * ننظر إلى هذه الصور ، ونشاط معين في دماغنا يسجل تلك السمات الشبيهة بالطيور التي تشبه الطيور والجرو. ولكن لا يزال هناك لا الطيور أو الجراء هنا. * نحن * نستكمل عملية التعرف هذه من خلال عرض هذه المعاني مرة أخرى على ما هو في الأساس ضوضاء ، مع توزيع محدد. وأنا أزعم أن هذا هو جوهر وجودنا كله: فهم توزيعات معينة من الضوضاء.

تعلم مقابل التحيز البشري

في نفس الوقت الذي كنت أقوم فيه بهذه الاستكشافات ، تم إجراء بحث علمي عن التحيزات المجتمعية التي تعلمتها العارضات [1 ، 2].

الأب: طبيب :: الام: [ممرضة]

على وجه الخصوص ، تم تقاسم نتيجة واحدة على نطاق واسع وجعلت العناوين الرئيسية. عندما يتم تقديمها مع "الطبيب - الأب + الأم" (أي "الأب هو الطبيب مثل الأم؟") ، فإن النموذج على ما يبدو يعود "ممرضة". إذا كان هذا صحيحًا ، فهذا دليل واضح جدًا على وجود تحيز قوي بين الجنسين في النموذج ، تم تعلمه من بيانات التدريب (في هذه الحالة ، 100 مليار كلمة من أخبار Google).

لسوء الحظ ، هذا ليس دقيقًا تمامًا.

في الواقع ، عندما نقوم بإجراء عملية مثل "king-man + woman" ، فإن الكلمة الأقرب إلى نقطة النهاية ليست دائمًا "ملكة". من المحتمل أن تكون "ملك". في الواقع ، في كل العمليات المذكورة أعلاه ، عادةً ما تكون أقرب كلمة هي إحدى الكلمات الأصلية التي كانت موجودة في استعلام الإدخال (أي الملك أو الرجل أو المرأة). لذلك عندما نقوم بتنفيذ هذه العمليات ، نقوم بإزالة (أي التصفية ، تجاهل) كلمات الإدخال من النتائج التي يعرضها النموذج يدويًا. في حالة "الطبيب - الأب + الأم" ، يُرجع النموذج فعليًا "الطبيب" كأقرب كلمة ، حيث يكون "الممرض" هو الأقرب إلى الثاني. في الواقع ، الكلمات الخمس الأولى من النموذج هي الطبيب ، الممرض ، الأطباء ، الطبيب ، طبيب الأسنان (يمكنك تجربته هنا).

يذكر مؤلفو الأوراق بشكل صريح أن "[زخارف الكلمات] تظهر تحيزات خفية متأصلة في مجموعة البيانات التي تم تدريبهم عليها ... وتعيد الحلول المتحيزة ... مثل الأب: الطبيب :: الأم: ممرضة". يتم التعبير عن هذه المشاعر عدة مرات في كلتا الورقتين ، وفي الواقع فإن التحيز الذي تم تعلمه هو أساس البحث.

بينما في الواقع ، لم يتعلم النموذج هذا التحيز بين الجنسين. إن النتيجة العليا من نموذج النموذج هي في الواقع "طبيب" ، ولكن يتم تجاهل هذه النتيجة ويتم الإبلاغ عن "الممرضة" (النتيجة الثانية العليا) في الورقة كأعلى إخراج للنموذج. هذه إما كذبة صريحة (أشك بشدة) ، أو خطأ مستخدم بشري من جانب مؤلفي الورقة (وهو أكثر احتمالًا). آمل ، وأعتقد أن هذا خطأ بريء ، وأن المؤلفين لا يعملون في الواقع مع النموذج مباشرةً ، لكنهم يستخدمون واجهة جهة خارجية للنموذج. تقوم واجهة الجهة الخارجية هذه بالتصفية ، وربما لا يكون المؤلفون على دراية بها (على سبيل المثال ، هذه واجهة غير مفلترة عبر الإنترنت للنموذج ، وهنا واجهة مصفاة عبر الإنترنت - حدد نموذج أخبار Google باللغة الإنجليزية. لديك رمز بيثون و C ++ هنا للعب مع النموذج مباشرة).

ومع ذلك ، فقد أصبح هذا البحث شائعًا في الأخبار ووسائل التواصل الاجتماعي وتم مشاركته على نطاق واسع - وخاصة هذه النتيجة المحددة - بما في ذلك في أماكن مثل MIT Technology Review. أحد الجوانب المهمة في هذا الأمر هو أنه على الرغم من أن الأخبار المزيفة تمثل مشكلة كبيرة بالفعل ، إلا أننا "مفكرون فكريون ناقدون" عمومًا ننسبها إلى "الجانب الآخر" - إلى Daily Mail و Breitbart و alt-right على Facebook (الآن أكثر موضعي من أي وقت مضى). إذن لماذا تقوم MIT Technology Review بالإبلاغ عن "أخبار وهمية"؟ لماذا يشارك الجميع ذلك على Twitter و Facebook؟ أليس الأشخاص الذين يبحثون عن التحيز والظلم في نماذج التعلم الآلي يفترض أنهم المفكرون الناقدون؟

هذا موضوع كبير لنشر آخر ، لكنه الدافع للمشروع التالي ، لذلك سأتطرق إليه بإيجاز.

يبدو أن التحيز البشري في تفسير النتائج قد يكون أقوى من أي تحيز قد يكون مضمنًا في التجربة أو النموذج. وليس هناك من هو محصن ضد هذا (بما في ذلك أنا بالطبع ، والذي سيكون ملازمًا في منظور هذه المقالة).

يبدو أن مؤلفي تلك الأوراق أرادوا العثور على تحيز في نموذج word2vec ، لذا فعلوا ذلك ، دون أن يتساءلوا حقًا عن سبب أو سبب حصولهم على هذه النتائج. يبدو أن MIT Technology Review أرادت الإبلاغ عن التحيز في نموذج اللغة ، كما فعلوا ، دون التشكيك في البحث. بعد كل شيء ، لماذا يجب أن يشككوا في الأمر؟ وكانت النتائج في ورقة! (ملاحظة: لا تتم مراجعة ورقة حول arxiv بواسطة النظراء ، ويمكن لأي شخص نشرها هناك ولا يجب أن يكون لها أي سلطة. ولا يتم إجراء ورقة في ورشة عمل على نفس المستوى من التدقيق مثل المؤتمر أو المجلة).

يبدو أن كل من شارك هذه المقالات على Twitter و Facebook أراد مشاركة القصص حول التحيز الجنسي المتعلم في نماذج ML ، لذلك فعلوا ، بعد كل شيء ، لماذا يجب عليهم التشكيك في MIT Technology Review؟ أو الباحثين في جامعة بوسطن ، أم Microsoft Research؟

والأهم من ذلك ، الأسئلة المطروحة في الأوراق هي أسئلة مهمة ويجب طرحها ومناقشتها ، وأنا أثني على المؤلفين للقيام بذلك (في الواقع ، ربما لم يحدث المشروع التالي إذا لم يكن لهم - وهم إجراء العديد من الدراسات الأخرى في الأوراق الصالحة للغاية).

ومع ذلك ، أجد أنه من المذهل كيف يمكننا أن نتخلى عن حذرنا ، وأن نكون أقل انتقادا لحلفائنا - من القصص والسرد والأدلة - عندما يتماشون مع الأسباب التي ندعمها ونؤمن بها. يبدو الأمر كما لو كنا على استعداد للتخفيف من معاييرنا في التقييم النقدي ، والتخلي عن الحقيقة قليلاً إذا كان "لسبب وجيه" (هذا شيء يظهر كثيرًا في تفكيري ، وقد كتبت باختصار عن ذلك هنا ، مع مثال كلاسيكي هنا ).

لا أقترح عدم وجود تحيزات في النموذج. في الواقع ، يوجد بلا شك تحيزات مُعلمة في النموذج ، يوجد دائمًا تحيز في النموذج ، ولهذا السبب وُلد حقل الإحصاء للبدء! (أي لدراسة ومحاولة وتقليص هذا التحيز - كتبت عن تاريخ موجز عن التحيز الآلي والإحصائي هنا).

إنه مجرد مثال على ذلك "الطبيب - الأب + الأم = الممرضة". إن وجدت ، فهي دليل على التحيز البشري في تفسير النتائج والإبلاغ عنها ومشاركتها.

لذلك بدأت أفكر في كيفية استكشاف التحيز بين الجنسين في النموذج.

WordOfMathBias

https://twitter.com/wordofmathbias

كل ما قلته حتى هذه اللحظة - عرض معنى للضجيج ، وتعلمت مقابل التحيز البشري - كان الدافع لهذا الروبوت التغريد.

هذا الروبوت مشابه للنموذج السابق ، ولكنه يتعلق أكثر باكتشاف التحيزات المجتمعية (خاصة الجنس) التي قد يكون النموذج قد تعلمها من بيانات التدريب. يبحث عن تشابه كلمة عشوائي مع "الرجل" و "المرأة" ، ويديرهما في الاتجاهين.

أي. إذا لم تتم تصفيته ، فإن "man: doctor :: woman:؟" تقوم بإرجاع الطبيب ، وهو أمر غير مثير للاهتمام للغاية ، ولن نكتسب الكثير من المعرفة حول النموذج أو البيانات. في حالة التصفية ، سنحصل على ممرض ، وهو أمر مثير للاهتمام ، لكنه لا يقول الكثير من تلقاء نفسه. أي. لا يمكن تفسير ذلك على أنه النموذج الذي يدعي "الرجل هو الطبيب لأن المرأة هي الممرضة" (انظر القسم السابق).

ومع ذلك ، إذا عكسنا "الرجل" و "المرأة" ، وقمنا أيضًا بتشغيل "woman: doctor :: man:؟" وتصفية النتائج ، سنحصل على "طبيب". الآن هذا مثير للاهتمام ويلقي مزيدًا من الضوء على النموذج الذي أعتقده. في حين أن النتيجة (غير المرشحة) لكل من "الرجل: الطبيب" و "المرأة: الطبيب" لا تزال "الطبيب" ، والنتيجة الثانية الأعلى للمرأة هي "الممرضة" ، بينما النتيجة الثانية الأعلى للرجل هي "الطبيب". من الواضح أن هذا تحيز مضمن في النموذج ، تم تعلمه من بيانات التدريب. وأتساءل ماذا هناك؟

لذلك هذا الروبوت يستكشف حفلات الزفاف كلمة بهذه الطريقة. إنها تختار كلمة عشوائية تمامًا ، وتضيف المتجه من "الرجل" إلى تلك الكلمة إلى "المرأة" وترجع النتائج. كما أنه يضيف المتجه من "المرأة" إلى هذه الكلمة إلى "الرجل" ، ويعيد النتائج. في كلتا الحالتين ، تقوم بإرجاع النتائج الأربعة الأولى ، وتصفية الكلمات استعلام الإدخال لتوفير مساحة.

إنه ليس علميًا جدًا ، أكثر من مجرد استكشاف غير رسمي. ولكن في الواقع ، بالإضافة إلى استكشاف التحيز المكتسب في النموذج ، فإنه يستكشف أيضًا التحيز البشري في تفسيراتنا. تمامًا كما في حالةwordofmath bot ، أجد أنه من المثير للاهتمام معرفة كيف نحاول إظهار معنى على النتائج. نظرًا لأن البوت يختار كلمة عشوائية حقًا (أي الضوضاء البيضاء والتوزيع الموحد) ، فغالبًا ما يصعب تفسير النتائج. وكما كان من قبل ، نقرأ ما نريد أن نقرأه من هذه الضوضاء المنظمة.

مثلا

إذا كانت الكلمة العشوائية "مطلوبة" ، فإن المرأة "توافق" أو "تطالب" ، بينما الرجل "يرشد" ، أو "يوافق". هل أنا أو هل يبدو أن كلمات الرجل لها دلالة إيجابية أكثر؟ هل يقول ذلك شيئًا عن بيانات التدريب؟ أو هل أنا أقرأ الكثير في ذلك؟ هل يقول أي شيء عن النموذج؟ أم هل يقول المزيد عني وعن الطريقة التي أفكر بها؟ كيف كنت قد فسرت هذه النتائج منذ 10 سنوات مقارنةً بكيفية القيام بها اليوم؟ كيف سأفسرها خلال 10 سنوات؟

إذا كانت الكلمة العشوائية "يحب" ، فإن المرأة "تعشق" أو "تستمتع" ، في حين أن الرجل "يستمتع" أو "يعرف". كيف تأتي المرأة "تتمتع" بينما الرجل "يعرف"؟ هل هذا يعني أي شيء؟ أو يمكن أن يكون غير منطقي كما هو سبب أخطاء التقريب الفاصلة العائمة؟

إذا كانت الكلمة العشوائية هي "أحرف" ، فإن المرأة هي "بطلات" أو "ممثلات" بينما يكون الرجل "شرير" أو "وحوش".

إذا كانت الكلمة العشوائية هي "سيارات" ، فإن الكلمة الوحيدة التي تختلف هي "سيدان" للمرأة ، و "شاحنات" للرجل. أعتقد أنه من الشائع أن يكون لديك سائقو سيارات ذكور أكثر من الإناث. هل هذه صدفة؟ أو هل تعلم النموذج فعلاً هذا؟

هذا مثير جدًا للاهتمام ، إذا كانت الكلمة العشوائية "مضغًا" ، فإن الكلمة الوحيدة المختلفة هي "تؤكل" بالنسبة للمرأة و "تلتهم" للإنسان. من الناحية الشخصية ، فإن "التهمت" هو وصف دقيق للغاية لكيفية تناول الطعام. لكنني لا أعرف ما إذا كنت أقرأها كثيرًا في هذه المرحلة.

من المرجح أن ترتبط النساء بـ "الدعوة" أو "الجمعيات الخيرية" ، بينما يكون الرجال أكثر ارتباطًا بـ "الفريق" أو "النادي". مرة أخرى ، هذا يبدو معقولاً.

تشمل القضايا "الاجتماعية" المتعلقة بالمرأة "النوع الاجتماعي" و "الأمهات" و "الرفاهية" ، بينما بالنسبة للرجال "الاجتماعية" و "الشباب" و "الفكرية".

استجابةً لـ "الجفون" ، فإن النساء مصابات بـ "المهبل" و "الخدين" ، بينما الرجال لديهم "خياشيم" و "جبين".

أخيرا،

المرأة هي "الحوض" أو "الدرج" ، لأن الرجل هو "الدلو" أو "المصفاة". ماذا يعني ذلك أم يعني؟ أنا متأكد من أنه يمكن للمرء استخدام هذا كنقطة انطلاق لمقال إذا وضعوا رأيهم فيه ، كما فعلت مع مثال "اللاهوت ، فضاء + عقيدة = لاهوت ، واعظ".

سيعود النموذج بنتيجة ، بغض النظر عن مدى سخافة السؤال الذي تطرحه. مرة أخرى ، تم تذكير أحد علامات الاقتباس المفضلة لدي (والتي أدرجها أيضًا في منشوري حول تاريخ التحيز الإحصائي):

[على آلات حساب باباج]
"في مناسبتين ، سُئل [أعضاء البرلمان] ،
"صل ، سيد باباج ، إذا وضعت في الآلة أرقامًا خاطئة ، فهل ستخرج الإجابات الصحيحة؟"
لا أستطيع حقًا أن أستوعب هذا النوع من اللبس في الأفكار التي يمكن أن تثير مثل هذا السؤال ".
- تشارلز باباج (1791-1871) ، "مقاطع من حياة الفيلسوف" ، 1864

ليس هناك شك في أن زخارف الكلمات يمكن أن تتعلم في الواقع وضع الكلمات مكانيًا في أبعاد عالية بطريقة تلتقط نوعًا من العلاقات ذات المغزى. سيشمل ذلك التحيزات المضمنة في بيانات التدريب. وعند استخدام مثل هذه النماذج في اتخاذ القرارات الحاسمة ، فإن أي تمييز ناتج عن مثل هذه التحيزات من المرجح أن يكون له عواقب سلبية للغاية ، خاصة بالنسبة لأولئك الذين يعانون بالفعل من نوع من الحرمان.

ولكن مع هذا ، في كثير من الأحيان يتم وضع هذه المخرجات بدقة بين "عشوائي" و "منظم" ، بحيث يكون من الصعب للغاية في بعض الأحيان معرفة ما إذا كان هناك بالفعل أي معنى وراءها ، أي التحيزات المضمنة في النموذج ، أم أننا هي مجرد إسقاط ما نريد أن نراه ، وكشف تحيزاتنا في تفسير النتائج. في بعض الأحيان ، قد يكون إسقاط الكثير من المعنى على مخرجات نموذج ما يشبه إلى حد ما رؤية وجه يسوع في قطعة من الخبز المحمص ، والإقناع بأنها رسالة من الله.

وفي بعض الحالات ، هذا ليس شيئًا سيئًا دائمًا. أجد الفكرة رائعة ، لاستخدام نماذج ML والمساحات الكامنة كمرشحات للمعنى ، لاستجواب تحيزاتنا وتصوراتنا - لأخذ توزيعات موحدة للضوضاء (أي عشوائي تمامًا ، أي ضوضاء بيضاء) ، وثنيها في ضوضاء أكثر تنظيماً قليلاً ، مثل مولدات Rorschach inkblot parametric ، لمختلف المجالات المختلفة.

وبعد ذلك يمكننا استخدام القطع الأثرية المنتجة كنقاط انطلاق ، مثل البذور التي تتفتح في مخيلتنا ، ونرى الأشياء فيها ، ونعني بها ، وننشئ قصصًا ، ونخترع الروايات حولها ، كما فعلنا منذ ملايين السنين.

NB. إن أفكار "إسقاط المعنى على الضجيج" وغيرها من التحيزات التي تخدم الذات بالطبع تتجاوز مجرد تفسير مخرجات نماذج التعلم الآلي ، ويمكن القول إن جميع جوانب الإدراك والحياة في الواقع - بما في ذلك حتى بعض الاستقطاب الاجتماعي والسياسي المتطرف الذي نرى اليوم. سأعمل بلا شك على هذه الموضوعات أكثر في المستقبل القريب.

في الواقع ، كلما أفكر في مصطلح "ماذا يعني ذلك؟" لا يسعني إلا أن أفكر في فيديو قوس قزح المزدوج لليوسيميتي 62 ، وجهوده لإبراز معنى في هذه الظاهرة الرائعة:

وحتى أكثر تجسيدًا في آخر 30 ثانية من شرحه:

شكر وتقدير

بالإضافة إلى بحثي المستمر في هذا المجال كجزء من رسالة الدكتوراه الخاصة بي ، تم دعم هذا العمل بإقامة في برنامج الفنانين والذكاء الآلي في Google. وبهذه الصفة ، أود أن أشكر Kenric McDowell و Mike Tyka و Andrea Held و Blaise Aguera y Arcas وغيرها الكثير على الدعم والمحادثات والاقتراحات الملهمة. استلهم العمل والأفكار التي تحدثت عنها هنا أيضًا من قِبل العديد من الأشخاص الآخرين ، لكنني أود إعطاء صيحة خاصة لكل من أليسون باريش وروس جودوين.

أنظر أيضا

هل يمكن أن تكون كاميرا فوجي XT2 أفضل كاميرا صنعها على الإطلاق؟كيف تبيع أفكارك إلى زومبي الشركاتتقديم Straylight ، والدوافع لبناء حاضنة تتمحور حول الإنساندمقرطة حقوق النشرأليكس وأليسون غراي على ميلنا الطبيعي لتكون خلاقة.ماذا تفعل إذا كان لديك عائلة وعاطفة (3 "ف")