Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
في تطور مثير ومقلق في نفس الوقت ، بدأت ظاهرة جديدة في الانتشار على الإنترنت باستخدام ChatGPT لتحديد المواقع الجغرافية من خلال الصور.
أطلق عملًا Openai هذا الأسبوع ، هناك نموذجان جديدان من الذكاء الاصطناعي ، O3 و O4-MINI ، لهما قدرات متقدمة في “الاستنتاج البصري” ، مما يسمح لهما بتحليل الصور بطريقة غير مسبوقة.
يمكن لهذه النماذج تأكيد الصور وتدويرها وتكبيرها في الداخل ، حتى لو لم تكن واضحة أو مرتبكة ، من أجل تحليلها بدقة.
بفضل دمج هذه القدرات التحليلية مع وظيفة البحث عبر الإنترنت ، يمكن للمستخدمين توجيه النموذج لاكتشاف الموقع الذي تم التقاط الصورة فيه. راقب عدد من مستخدمي منصة X Twitter (سابقًا Twitter) أن طراز O3 يمكنه تحديد المدن والمعايير الشهيرة بدقة وحتى أسماء المطاعم والبارات من خلال إشارات مرئية بسيطة للغاية.
من المثير للدهشة أن هذه النتائج لا تعتمد على بيانات EXIF (التي يتم إرفاقها بالبيانات مع الصور التي تتضمن معلومات مثل موقع التصوير الفوتوغرافي) ، ولا على ذكرى القطط السابقة لـ ChatGPT ، والتي تعتمد فقط على تحليل الصورة نفسها.
على منصة X ، العديد من تجارب المستخدمين التي أظهرت صورًا للبث النموذجية للأحياء أو واجهات المطاعم أو حتى صور شخصية ، وطلبوا منه أن يلعب دور اللعبة “Geogussr” ، وهي لعبة شهيرة تتحدى خرائط Google Street View التخمين.
ومع ذلك ، فإن هذا الاتجاه يثير مخاوف واضحة تتعلق بالخصوصية ، لأنه لا يوجد بعد ما يمنع أي شخص من نية سيئة لالتقاط صورة للتاريخ على Instagram ، على سبيل المثال ، واستخدام ChatGPT لمحاولة تحديد موقع هذا الشخص بدقة.
تجدر الإشارة إلى أن قدرات الموقع ليست حصرية لنماذج جديدة. وفقًا لتجربة تنفذها TechCrunch ، فقد تبين أن نموذج GPT-4O القديم (الذي لا يحتوي على وظيفة “الاستنتاج البصري”) تمكن من تحديد الموقع الصحيح في معظم الحالات بنفس دقة O3 وأحيانًا أسرع.
في إحدى التجارب الفريدة ، أظهر طراز O3 صورة لرأس عمود أرجواني واحد معلق داخل شريط الضوء ، وكان قادرًا على تحديد موقع أحد “الحانات السرية” في منطقة نيويورك ويليامزبرغ ، في حين أن أقدم نموذج كان خطأ ، وكان من المفترض أن يكون ذلك بمثابة شريط في المملكة المتحدة.
ومع ذلك ، هذا لا يعني أن نموذج O3 معصوم ، فقد فشل في عدد معين من التجارب ، إما عن طريق إدخال دائرة مفرغة دون استجابة حاسمة ، أو عن طريق تحديد المواقف السيئة.
أشار مستخدمو النظام الأساسي X إلى أنه في بعض الحالات كان النموذج بعيدًا تمامًا عن الحقيقة.
تُظهر هذه الظاهرة الناشئة مخاطر نماذج الذكاء الاصطناعي المتقدمة القادرة على “الاستدلال المنطقي”.
على ما يبدو ، لا يوجد حاليًا عناصر تحكم كافية لمنع هذه الوظيفة الخطرة المعروفة باسم “البحث العكسي للموقع” ، ولم يحل Openai هذه المشكلة في تقرير الأمن المكرس لـ O3 و O4-Mini.
رفضي الرسمي Openai
تواصل TechCrunch مع Openai للحصول على تعليق رسمي ، وحدثت الاستجابة بعد ساعات قليلة من نشر التقرير ، لأن متحدثًا باسم الشركة قال: “توفر نماذج O3 و O4-MINI من نماذج Openai استنتاجات بصرية في ChatGPT ، مما يجعلها أكثر فائدة في مجالات الوصول أو البحث العلمي أو الموضع في مواقف الطوارئ.”
“لقد عملنا على تدريب النماذج لرفض الطلبات التي تتضمن معلومات خاصة أو حساسة ، وقد أضفنا ضوابط لمنع النموذج من تحديد الأفراد في الصور ، ونراقب بنشاط أي انتهاك لسياستنا فيما يتعلق بالخصوصية واتخاذ التدابير اللازمة.”