The Washington Post جوجل تقترب من أكتشاف صور الذكاء الاصطناعي

الصور المصنوعة بالذكاء الاصطناعي أصبحت تؤرق الجميع حول العالم، خاصة بسبب استحالة أكتشاف صور الذكاء الاصطناعي والتفرقة بينها وبين الحقيقية، بفضل التقنيات الجديدة مثل تقنية التزييف العميق Deepfake، وفي اتجاه أخر فأن شركات التكنولوجيا العملاقة لا تزال تستثمر في بناء أدوات ذكاء اصطناعي أكثر تقدماً، وتعد ايضاً ببناء المزيد من الأدوات للحماية من سوء استخدامها

The Washington Post جوجل تقترب من أكتشاف صور الذكاء الاصطناعي
img source:washingtonpost.com

فمع تصاعد الحملة الرئاسية الأمريكية لعام 2024، تتزايد المخاوف بسرعة من احتمال استخدام مثل هذه الصور لنشر معلومات كاذبة.

أداة جوجل الجديدة SynthID لأكتشاف صور الذكاء الاصطناعي

وقد أعلنت جوجل عن أداة جديدة – تسمى SynthID – والتي تقول إنها يمكن أن تكون جزءًا من الحل، تقوم الأداة بتضمين “علامة مائية” رقمية مباشرة في كل الصور، ولا يمكن رؤيتها بالعين البشرية ولكن يمكن التقاطها بواسطة جهاز كمبيوتر تم تدريبه على قراءتها، وهو ما يمكنها من أكتشاف صور الذكاء الاصطناعي.

وقالت جوجل إن تقنية العلامات المائية الجديدة الخاصة بها مقاومة للتلاعب، مما يجعلها خطوة رئيسية نحو مراقبة انتشار الصور المزيفة وإبطاء نشر المعلومات المضللة.

مخاوف من عدم التمكن من أكتشاف صور الذكاء الاصطناعي

أصبحت مولدات الصور المدعومة بالذكاء الاصطناعي متاحة منذ عدة سنوات، وقد تم استخدامها بشكل متزايد لإنشاء “صور مزيفة عميقة” – صور زائفة تدعي أنها حقيقية. ففي مارس/آذار، انتشرت على الإنترنت صور مزيفة مدعمة بالذكاء الاصطناعي للرئيس السابق دونالد ترامب وهو يهرب من الشرطة، وفي مايو/أيار، تسببت صورة مزيفة تظهر انفجارا في البنتاغون في انهيار مؤقت في أسواق الأسهم.

لقد وضعت الشركات شعارات مرئية على صور الذكاء الاصطناعي، بالإضافة إلى “بيانات وصفية” نصية مرفقة تشير إلى أصل الصورة، ولكن يمكن اقتصاص كلا التقنيتين أو تحريرهما بسهولة نسبية وهو ما يجعل أكتشاف صور الذكاء الاصطناعي شبه مستحيلة.

وقالت النائبة إيفيت د. كلارك (ديمقراطية من ولاية نيويورك)، التي طالبت بتشريع يلزم الشركات بوضع علامة مائية على صور الذكاء الاصطناعي الخاصة بها، في مقابلة: “من الواضح أن الجني قد خرج بالفعل من القمقم”.

في الوقت الحالي، أداة جوجل متاحة فقط لبعض العملاء الذين يدفعون مقابل أعمالها في مجال الحوسبة السحابية – وهي تعمل فقط مع الصور التي تم إنشاؤها باستخدام أداة توليد الصور من جوجل، Imagen. وتقول الشركة إنها لا تطلب من العملاء استخدامها لأنها لا تزال تجريبية.

وقال بوشميت كوهلي، نائب رئيس الأبحاث في Google DeepMind، مختبر الذكاء الاصطناعي التابع للشركة، إن الهدف النهائي هو المساعدة في إنشاء نظام يمكن من خلاله التعرف بسهولة على معظم الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي باستخدام العلامات المائية المدمجة، والذي حذر من أن الأداة الجديدة ليست كاملة تمامًا. لا يمكن استخدامه بسوء. “السؤال هو: هل لدينا التكنولوجيا للوصول إلى هناك؟”

مع تحسن الذكاء الاصطناعي في إنشاء الصور ومقاطع الفيديو، يشعر السياسيون والباحثون والصحفيون بالقلق من أن الخط الفاصل بين ما هو حقيقي وما هو زائف على الإنترنت سوف يتآكل بشكل أكبر، وهي ديناميكية يمكن أن تعمق الانقسامات السياسية القائمة وتجعل من الصعب نشر المعلومات الواقعية. يأتي التحسن في تقنية التزييف العميق مع تراجع شركات وسائل التواصل الاجتماعي عن محاولة مراقبة المعلومات المضللة على منصاتها.

تعد العلامات المائية إحدى الأفكار التي تتجمع حولها شركات التكنولوجيا كوسيلة محتملة لتقليل التأثير السلبي لتقنية الذكاء الاصطناعي “الإنتاجية” التي تنشرها بسرعة لملايين الأشخاص. في يوليو/تموز، استضاف البيت الأبيض اجتماعًا مع قادة سبع من أقوى شركات الذكاء الاصطناعي، بما في ذلك شركة Google وشركة OpenAI المصنعة لـ ChatGPT. وتعهدت جميع الشركات بإنشاء أدوات للعلامة المائية واكتشاف النصوص ومقاطع الفيديو والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

وبدأت مايكروسوفت تحالفًا من شركات التكنولوجيا وشركات الإعلام لتطوير معيار مشترك لوضع العلامات المائية على صور الذكاء الاصطناعي، وقالت الشركة إنها تبحث عن طرق جديدة لتتبع صور الذكاء الاصطناعي. وتضع الشركة أيضًا علامة مائية صغيرة مرئية في زاوية الصور التي يتم إنشاؤها بواسطة أدوات الذكاء الاصطناعي الخاصة بها.

كما تضيف شركة OpenAI، التي ساعد مولد الصور Dall-E الخاص بها في إطلاق موجة الاهتمام بالذكاء الاصطناعي العام الماضي، علامة مائية مرئية. اقترح باحثو الذكاء الاصطناعي طرقًا لدمج علامات مائية رقمية لا تستطيع العين البشرية رؤيتها ولكن يمكن التعرف عليها بواسطة الكمبيوتر.

وقال كوهلي، المدير التنفيذي لشركة جوجل، إن أداة جوجل الجديدة أفضل لأنها تعمل حتى بعد تغيير الصورة بشكل كبير، وهو تحسن رئيسي مقارنة بالطرق السابقة التي يمكن إحباطها بسهولة عن طريق تعديل الصورة أو حتى قلبها.

وقال: “توجد تقنيات أخرى للعلامات المائية المضمنة، لكننا لا نعتقد أنها موثوقة إلى هذا الحد”.

وحتى لو قامت شركات الذكاء الاصطناعي الكبرى الأخرى مثل Microsoft وOpenAI بتطوير أدوات مماثلة وقامت شبكات التواصل الاجتماعي بتنفيذها، فإن الصور التي تم إنشاؤها باستخدام مولدات الذكاء الاصطناعي مفتوحة المصدر ستظل غير قابلة للاكتشاف.

إن الأدوات مفتوحة المصدر مثل تلك التي أنشأتها شركة Stability AI الناشئة في مجال الذكاء الاصطناعي، والتي يمكن تعديلها واستخدامها من قبل أي شخص، تُستخدم بالفعل لإنشاء صور جنسية غير موافقة لأشخاص حقيقيين، فضلاً عن إنشاء مواد جديدة مسيئة للاطفال.

وقال دان بورسيل، مؤسس شركة Ceartas، وهي شركة تساعد منشئي المحتوى عبر الإنترنت على تحديد ما إذا كان المحتوى الخاص بهم تتم إعادة مشاركته دون إذنهم: “في الأشهر التسعة الأخيرة إلى العام الماضي، شهدنا هذه الزيادة الهائلة في التزييف العميق”. في الماضي، كان العملاء الرئيسيون للشركة هم صانعو المحتوى للبالغين الذين يحاولون منع مشاركة مقاطع الفيديو والصور الخاصة بهم بشكل غير مشروع. لكن في الآونة الأخيرة، تلقت بورسيل طلبات من أشخاص استُخدمت صورهم على وسائل التواصل الاجتماعي في إنتاج مواد جنسية من إنتاج الذكاء الاصطناعي ضد إرادتهم.

أصبح من السهل الآن إنشاء المواد الجنسية باستخدام الذكاء الاصطناعي. بالنسبة للنساء، هذا كابوس.

مع توجه الولايات المتحدة نحو الانتخابات الرئاسية لعام 2024، هناك ضغوط متزايدة لتطوير أدوات لتحديد صور الذكاء الاصطناعي المزيفة وإيقافها. وبالفعل، يستخدم السياسيون الأدوات في إعلانات حملاتهم الانتخابية. في يونيو/حزيران، أصدرت حملة حاكم فلوريدا رون ديسانتيس مقطع فيديو يتضمن صورًا مزيفة لدونالد ترامب وهو يعانق مستشار البيت الأبيض السابق لفيروس كورونا أنتوني إس. فوسي.

لطالما تضمنت الانتخابات الأمريكية الدعاية والأكاذيب والمبالغات في إعلانات الحملات الرسمية، لكن الباحثين والناشطين الديمقراطيين وبعض السياسيين يشعرون بالقلق من أن الصور التي ينشئها الذكاء الاصطناعي، إلى جانب الإعلانات المستهدفة وشبكات التواصل الاجتماعي، ستسهل نشر معلومات كاذبة ومضللة. الناخبين.

وقالت كلارك، عضوة الكونجرس الديمقراطية: “قد يكون هذا شيئًا بسيطًا مثل وضع تصوير مرئي لمكان تصويت أساسي تم إغلاقه”. “قد يكون شيئًا يثير الذعر بين الجمهور، ويصور نوعًا من الوضع العنيف ويثير الخوف”.

وقالت إن الذكاء الاصطناعي يمكن استخدامه من قبل الحكومات الأجنبية التي أثبتت بالفعل استعدادها لاستخدام وسائل التواصل الاجتماعي وغيرها من التقنيات للتدخل في الانتخابات الأمريكية. “بينما ندخل في حرارة الموسم السياسي، ومع احتدام الأمور، يمكننا بسهولة أن نرى التدخل قادمًا من خصومنا على المستوى الدولي”.

عادةً ما يكشف النظر عن كثب إلى صورة من Dall-E أو Imagen عن بعض التناقضات أو الميزات الغريبة، مثل أن يكون لدى الشخص عدد كبير جدًا من الأصابع، أو أن الخلفية غير واضحة في موضوع الصورة. لكن دور ليتمان، رئيس قسم المنتجات والبحث والتطوير في شركة Connatix، وهي شركة تقوم ببناء أدوات تساعد المسوقين على استخدام الذكاء الاصطناعي لتحرير وإنشاء مقاطع الفيديو، قال إن مولدات الصور المزيفة “ستتحسن بنسبة 100%”.

وقال ليتمان إن الديناميكية ستكون مشابهة لكيفية انخراط شركات الأمن السيبراني في سباق تسلح لا ينتهي مع المتسللين الذين يحاولون إيجاد طريقهم لتجاوز وسائل الحماية الأحدث والأفضل. “إنها معركة مستمرة.”

أولئك الذين يريدون استخدام الصور المزيفة لخداع الناس سيستمرون أيضًا في إيجاد طرق لإرباك أدوات الكشف عن التزييف العميق. وقال كوهلي إن هذا هو السبب وراء عدم مشاركة Google للبحث الأساسي وراء تقنية العلامات المائية الخاصة بها. وأضاف: “إذا عرف الناس كيف فعلنا ذلك، فسيحاولون مهاجمته”.


This article is translated from the Washington Post: written by Gerrit De Vynck

source

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More