أخبار محلية
الذكاء الاصطناعي بين الفرص والتحديات.. محادثات مؤرشفة ومخاوف مفتوحة
كانت دعاء، 25 عامًا، تعتبر ChatGPT مختصها النفسي وحافظ أسرارها. تقول: "كنت أتشارك معه كل شيء، مشاكلي الشخصية، أسراري العائلية، صوري الخاصة وضغوطات العمل،وأحيانًا كنت أجعله يكتب يومياتي!".
قصة دعاء ليست استثناءً، بل تعكس واقعًا يعيشه كثير من الأشخاص الذين وجدوا في روبوتات الدردشة مساحة آنية للبوح والتنفيس. غير أن هذه المساحة تفتح بابًا واسعًا للقلق حول من يملك هذه المحادثات، وكيف تُستخدم بيانات المستخدمين، خصوصًا في بيئة هشّة مثل اليمن، حيث قد يؤدي تسرب البيانات الشخصية، خاصة بالنسبة للنساء، إلى تهديد حياتهن بشكل مباشر.
"لم يكن لدي أي وعي رقمي ومحاذير لاستخدام الذكاء الاصطناعي، لم أكن أعلم أنني أرسل بيانات خاصة وحساسة جدًا إلى المجهول !"، تقول دعاء.
محادثات مؤرشفة
كشف تحقيق لـ digital digging نُشر في شهر يوليو من العام الجاري أن جوجل قامت بفهرسة محادثات "ChatGPT" التي أرسلها المستخدمون إلى الأصدقاء أو العائلات أو الزملاء، ما حوّل التبادلات الخاصة إلى نتائج بحث مرئية لملايين الأشخاص. ورغم أن ChatGPT لا يكشف عن هويات المستخدمين، إلا أن بعضهم عرّف عن نفسه بمشاركة معلومات شخصية بالغة الدقة.
بعد ذلك عملت شركة "OpenAI" مع "جوجل" على حذف هذه المحادثات، لكن قلق المستخدمين استمر، خصوصًا مع وجود مواقع للأرشفة الرقمية مثل Wayback Machine التي تؤرشف نسخ من المحتوى المنشور على الإنترنت!.
وكان قد حذر سام ألتمان، المدير التنفيذي لشركة "OpenAI" ضمن مقابلة معه في برنامج "This Past Weekend" في يوليو 2025، "إن محادثات "ChatGPT" لا تتمتع بالحماية القانونية"، واصفًا استخدامه بحذر بأنه "أمر منطقي".
هذا ما أثار ذعر منال 28 عامًا، التي تقول:"عندما أخبرتني صديقتي التي تعمل في تدقيق المعلومات عن تصريحات ألتمان، ندمت على مشاركة "ChatGPT" معلومات حساسة، فتسرب بيانتي الشخصية يعني تعرض حياتي للخطر".
فيديوجراف لتصريحات سام ألتمان
https://youtu.be/mPs9gHo_aUA
وعي رقمي متدنٍ
استخدام الإنترنت دون وعي بأمن المعلومات يمثل خطراً كبيراً، حيث يعاني كثير من المستخدمين من ضعف في الثقافة الرقمية. يظهر ذلك في عدم القدرة على التمييز بين الرسائل الإلكترونية العادية ورسائل التصيّد، أو في استخدام البرامج المكركة والأنظمة المعدلة التي تشكل تهديداً مباشراً لأمن الأجهزة والبيانات ناهيك عن مشاركة بيانات حساسة أثناء محادثاتهم مع الذكاء الاصطناعي، بحسب مهندس الأمن الرقمي عزمي الصلوي.
ويضيف الصلوي: "إحدى المخاطر الأساسية تكمن في عدم معرفة الجهات التي تطور نماذج الذكاء الاصطناعي ، وإلى أين تذهب هذه المحادثات.."بعض المستخدمين يرسلون ملفات حساسة، وصور خاصة، دون إدراك أن هذه البيانات قد تُستغل لاحقًا للابتزاز أو البيع"، معقبًا:" ربما تظهر مثل هذه القضايا الابتزازية المرتبطة بالذكاء الاصطناعي في المستقبل، وقد نشهد قضايا ابتزاز من قبل شركات بدلا من أفراد!".
ويحذر من تطبيقات الذكاء الاصطناعي التي تحول الصور إلى رسوم كارتونية أو إنمي والتي تلقى رواجًا بين النساء: "البعض يرسل صورًا خاصة ولكنه في هذه الحالة لا يعرف إلى أين تم إرسال هذه الصور وهل الشركة آمنة أم لا. قد تكون بعض هذه الشركات وهمية وتحتفظ بالصور على سيرفراتها، ثم تستخدم لاحقًا في الابتزاز".
ويتابع "من الأخطاء الشائعة أن تتم مشاركة الذكاء الاصطناعي بيانات شخصية مثل الإيميل الشخصي والاسم وعنوان السكن أو أرقام الهواتف، مضيفًا :" أي بيانات خاصة وحساسة لا ترغب أن يطلع عليها أحد، لا ترسلها، هذا الحل الأمثل لحماية خصوصيتك". مضيفًا أن استخدام المحادثات المؤقتة مع هذه التطبيقات قد يمثل أمن أعلى :" على الأقل إذا تم اختراق الجهاز لا يمكن الوصول إلى نسخ من هذه المحادثات الحساسة"، يوضح الصلوي.
بين الدعم والقلق
رغم ما يتيحه الذكاء الاصطناعي من فرص واسعة، إلا أن مخاوف النساء من انتهاك الخصوصية، إلى جانب ضعف وصولهن إلى التكنولوجيا الذي يعيق تعلمهن استخدامها، ما يزال يحرم كثيرات من الاستفادة الكاملة منها. هذه التحديات تظهر بوضوح من خلال تجارب النساء الفعلية مع هذه الأدوات.
تقول وفاء (33 عامًا): "تستخدم صديقتي مراسلات شات جي بي تي لأنه ينصت إليها ويرحب بأسئلتها على الدوام ويقدم لها نصائح رائعة جعلت صحتها النفسية تتحسن". وتضيف: "نصحتني مرارًا باستخدامه لحل مشكلاتي لكنني أخشى دائمًا مشاركته بياناتي، لهذا اكتفيت باستخدامه بشكل سطحي!".
حول ذلك، تقول الأخصائية النفسية ريم العبسي إن استخدام الذكاء الاصطناعي كمعالج نفسي بديل انتشر بشكل واسع بين الشباب. وتوضح بالرغم من غياب الدراسات في اليمن حول ذلك إلا أنه: "أشارت بعض الدراسات التي أقيمت على مجتمعات غربية أن النساء أبلغن عن قلق من الذكاء الاصطناعي أعلى من الرجال، وانخفاض المواقف الإيجابية تجاهه وتجاه استخدامه والمعرفة المتصورة به".
وتفسر ذلك بقولها: "وصول المرأة إلى التكنولوجيات الرقمية واستخدامها أقل بكثير من وصول الرجال، كما أن النساء أكثر عرضة للنظر إلى أنظمة الذكاء الاصطناعي على أنها أكثر تعقيدًا في التعلم وأقل فائدة في تلبية احتياجاتهن، بالإضافة إلى خوف النساء من المخاطر الرقمية وتفشي البيانات واستخدامها لأغراض لا أخلاقية ذلك يضفي قلقاً أكثر لديهن".
وترى العبسي أن هذه الأدوات قد تساعد في تحسين النتائج الطبية، لكنها تحذر: "العلاج النفسي يعتمد على بناء علاقة إنسانية مهنية بين المعالج والمريض، الذكاء الاصطناعي لا يمكنه حتى الآن أن يوفر هذه العلاقة، كما أن أدوات الذكاء الاصطناعي عجزت حتى الآن عن مراعاة الخصوصية والفردية لكل حالة والمعايير الثقافية والاجتماعية التي تتحكم بها، وتضيف "ومع ذلك، يبشر المجال بالخير في معالجة تحديات الصحة النفسية".
توصيات
يشدد الصلوي على أن الاستخدام العشوائي للذكاء الاصطناعي ومشاركة البيانات دون ضوابط يضاعف المخاطر الرقمية ويشكل خطرًا مستقبليًا، لذلك يؤكد على ضرورة تكاتف الجهود الحكومية ومنظمات المجتمع المدني لدعم برامج محو الأمية الرقمية والاستخدام الآمن للذكاء الاصطناعي ودمج محاضرات المختصين في المدارس والجامعات والمؤسسات الحكومية.
وفي السياق النفسي، توضح العبسي: "الذكاء الاصطناعي يمكن أن يساهم في تقديم التوجيه العاطفي أو النصائح العامة، لكن القدرة على التعامل مع التحديات النفسية العاطفية العميقة تظل ضمن طاقة المعالج البشري، لذا يجب أن يتم تكامله مع العلاقات التقليدية بدلا من استبدالها بالكامل وإدراج التدريب على تقنيات الذكاء الاصطناعي ضمن برامج التأهيل سواء للأفراد أو المعالجين النفسيين.
وتضيف أنه يجب تطوير دورات تدريبية للممارسين حول استخدام هذه الأنظمة و تفسير نتائجها مع مراعاة أخلاقيات المهنة وأمن البيانات :"يمكن أن تؤدي حالات اختراق البيانات وإساءة استخدام المعلومات الشخصية إلى تآكل الثقة في التكنولوجيا والإضرار بالمستخدمين مما يسبب التوتر والقلق".