شبكات الأعصاب في DeepNude وتأثيرها
أثار DeepNude قضايا أخلاقية مهمة حول استخدام الذكاء الاصطناعي.
ما هو DeepNude ولماذا لا يزال يتم الحديث عنه اليوم؟
DeepNude هو برنامج ذكاء اصطناعي أثار الجدل بسبب قدرته على إنشاء نسخ معدلة من صور الأشخاص الملبسين، مما يجعل الموضوعات تبدو كما لو كانوا عراة. تم تطوير البرنامج من قبل مبرمج روسي معروف باسم ألبرتو. الفكرة، وفقًا لما تم التصريح به، نشأت كتجربة تقنية مستوحاة من "نظارات الأشعة السينية" الشهيرة في إعلانات الستينيات والسبعينيات. ومع ذلك، تم سحب DeepNude بعد فترة قصيرة من إصداره، بسبب الانتقادات المتعلقة بالاستخدام غير المتفق عليه للصور والمخاطر الأخلاقية المرتبطة بهذا النوع من الذكاء الاصطناعي.
ما هي تقنيات الذكاء الاصطناعي التي تجعل DeepNude ممكنًا؟
يعتمد DeepNude على مفهومين رئيسيين من التعلم الآلي: الشبكات التنافسية التوليدية (GAN) وتكنولوجيا pix2pix. تعتبر GAN نوعًا من الشبكات العصبية المكونة من نموذجين يعملان معًا: مولد، يقوم بإنشاء الصور؛ ومميز، يقوم بتقييم ما إذا كانت الصورة الناتجة تبدو حقيقية أم لا. مع مرور الوقت، يصبح المولد أفضل في إنتاج صور واقعية، بينما يتحسن المميز في التعرف على الأخطاء. إنها لعبة ثنائية تجعل الشبكة تتعلم كيفية إنشاء صور قابلة للتصديق. من ناحية أخرى، تعتبر pix2pix تقنية لتحويل الصور من صورة إلى صورة أخرى. تُستخدم لتحويل صورة من تنسيق بصري إلى آخر - على سبيل المثال، من "صورة بملابس" إلى "صورة بدون ملابس" في حالة DeepNude.
كيف تم تدريب خوارزمية DeepNude؟
تم تدريب الخوارزمية على أكثر من 10,000 صورة لنساء عاريات، تم جمعها من الإنترنت. سمح هذا المجموع البياني للنظام بـ"تعلم" كيف تبدو أجزاء الجسم الأنثوي المختلفة - الجلد، الأشكال، النسب والألوان - في ظروف إضاءة مختلفة وفي أوضاع مختلفة. بفضل هذه المعلومات، تعلمت الشبكة العصبية التعرف على المناطق المغطاة بالملابس وإعادة بنائها رقميًا متخيلة ما سيكون تحتها، بناءً على النماذج التي تم تعلمها. من المهم التأكيد على أن DeepNude يعمل تقريبًا فقط على صور النساء، لأن مجموعة التدريب كانت تتكون تقريبًا حصريًا من صور نسائية. عندما يتم محاولة استخدام الخوارزمية على صور للرجال، تكون النتائج مشوهة وغير واقعية.
ماذا تفعل الشبكة العصبية بالضبط عندما تتلقى صورة؟
عندما يقوم مستخدم بإدخال صورة لشخص ملبس، تقوم الشبكة العصبية بتنفيذ سلسلة من الخطوات التلقائية: 1. التعرف على ملامح الجسم. تحدد الخوارزمية شكل الجسم والمناطق المغطاة بالملابس. 2. تقسيم الصورة. تقسم الصورة إلى مناطق: ملابس، جلد، خلفية وتفاصيل. 3. إعادة البناء الاصطناعي. بناءً على البيانات التي تم تعلمها أثناء التدريب، تقوم الشبكة بإنشاء بكسلات جديدة تمثل الجلد والتفاصيل التشريحية المتوافقة مع الوضع والإضاءة الأصلية. 4. التركيب النهائي. تحل البكسلات الجديدة "رقميًا" محل الملابس، مما يخلق وهم وجود جسم عارٍ، دون عرض صورة حقيقية للموضوع. يستخدم DeepNude GAN:
ماذا يعني ذلك بكلمات بسيطة؟
تعمل GAN مثل لعبة بين ذكاءين اصطناعيين. واحد (المولد) ينشئ صورًا مزيفة، بينما الآخر (المميز) يحاول فهم ما إذا كانت حقيقية أم مزيفة. في البداية، ينتج المولد صورًا خامًا، مليئة بالأخطاء. ولكن، مع آلاف التكرارات، يتعلم تقليد الواقع بشكل أفضل. هذا النوع من التعلم هو ما يسمح لـ DeepNude بإنشاء صور متسقة وواقعية بصريًا، حتى لو كانت اصطناعية تمامًا. تُستخدم GAN اليوم في العديد من المجالات الأخرى: من ترميم الصور القديمة إلى إنشاء شخصيات افتراضية في ألعاب الفيديو، وصولًا إلى الفلاتر التصويرية في الشبكات الاجتماعية.
ماذا يعني أن DeepNude يستخدم تقنية "pix2pix"؟
pix2pix هو نوع من نماذج الذكاء الاصطناعي التي تحول صورة إلى نسخة بصرية أخرى من نفس الصورة. على سبيل المثال: يمكن أن تحول رسمًا تخطيطيًا إلى وجه واقعي؛ أو خريطة طرق إلى صورة فضائية. في حالة DeepNude، يتم استخدام pix2pix للانتقال من "صورة بملابس" إلى "صورة بدون ملابس"، وفقًا للمنطق الذي تم تعلمه أثناء التدريب. لا يتعلق الأمر بـ"تراكب" بسيط للطبقات الرسومية: النموذج ينشئ بكسلات جديدة بناءً على إحصائيات البيانات التي درسها.
لماذا تم سحب DeepNude؟
بعد الإصدار الأولي في عام 2019، تم سحب DeepNude من قبل منشئه نفسه. كانت الانتقادات فورية وقوية: كان يمكن استخدام التطبيق لإنشاء صور غير متفق عليها، مما ينتهك خصوصية وكرامة الأشخاص. كان الخطر هو أن أي شخص يمكنه تحميل صورة لامرأة ملبسة والحصول على نسخة معدلة في ثوانٍ. صرح منشئ DeepNude أنه لم يتوقع الاستخدام الضار الذي سيتم القيام به وأزال المشروع، موضحًا أن "العالم لم يكن جاهزًا لتكنولوجيا من هذا النوع".
ما هو التأثير الأخلاقي والاجتماعي لتقنيات مثل DeepNude؟
أثار DeepNude قضايا أخلاقية أساسية حول العلاقة بين الذكاء الاصطناعي والخصوصية والموافقة. تُستخدم نفس التقنيات المستخدمة لإنشاء الصور المعدلة اليوم في سياقات إيجابية، مثل الطب والسينما أو الترميم الرقمي. ومع ذلك، بدون قواعد ورقابة، يمكن أن تصبح أدوات للإساءة. وقد دفع ذلك الحكومات والشركات والباحثين إلى الحديث عن أخلاقيات الذكاء الاصطناعي، مطالبين بمسؤولية أكبر في تطوير واستخدام الشبكات العصبية التوليدية.
هل لا تزال تقنيات مثل DeepNude مستخدمة اليوم؟
على الرغم من سحب DeepNude، لا تزال التكنولوجيا الأساسية - GAN ونماذج pix2pix - مستخدمة على نطاق واسع. هناك المئات من مشاريع الذكاء الاصطناعي التوليدية التي تستفيد من مبادئ مماثلة لأغراض قانونية وإبداعية: تجديد الصور التالفة، إنشاء صور رمزية واقعية، أو إعادة بناء الوجوه من صور جزئية. في الوقت نفسه، ظهرت نسخ غير قانونية واستنساخات من البرنامج الأصلي، تعمل في الشبكة المظلمة أو على قنوات خاصة، غالبًا لأغراض ضارة.
هل من الممكن استخدام تقنيات مثل تلك الموجودة في DeepNude بشكل أخلاقي؟
نعم، ولكن مع حدود وقواعد واضحة. يمكن استخدام نفس الشبكات العصبية التي استخدمها DeepNude لتوليد الصور لإعادة بناء الوجوه المفقودة في اللوحات القديمة، لإعادة إنشاء المناظر الطبيعية أو لنمذجة الأشياء ثلاثية الأبعاد. المشكلة ليست في التكنولوجيا نفسها، ولكن في الاستخدام الذي يتم القيام به. العديد من شركات الذكاء الاصطناعي تقوم الآن بتنفيذ أنظمة رقابة لمنع التلاعب غير المصرح به بالصور الحقيقية للأشخاص.
كيف يتم تدريب الشبكات العصبية التوليدية اليوم بشكل مسؤول؟
اليوم، يسعى المطورون لاستخدام مجموعات بيانات أخلاقية، تتكون من صور تم إنشاؤها بشكل اصطناعي أو محتوى تم إصداره بتراخيص مفتوحة. بالإضافة إلى ذلك، يتم اعتماد أنظمة تصفية للمحتوى الحساس وتتبع النماذج لمعرفة كيف ومع أي بيانات تم تدريبها. هذه الشفافية ضرورية لتجنب تكرار حالات مثل DeepNude وللحفاظ على ثقة الجمهور في الذكاء الاصطناعي.