
الذكاء الاصطناعي هنا، هل أنتم مستعدون؟
يستخدم الموظفون أدوات الذكاء الاصطناعي، سواءً كانوا مُصرّحًا لهم بذلك أم لا. وبدلًا من تضييق الخناق على استخدام الذكاء الاصطناعي، فكّروا في تطوير برنامج عفو عن استخدام الذكاء الاصطناعي.
تخيل هذا: سارة، مديرة تسويق في إحدى الشركات تستخدم ChatGPT سرًا لتبسيط عملية إنشاء المحتوى لفريقها. على بُعد خطوات قليلة، يعتمد جيمس، في قسم المالية، على أداة #الذكاء_اصطناعي لتحليل اتجاهات السوق، وهو عمل كان يستغرق أسابيع في السابق، ولكنه الآن لا يستغرق سوى ساعات. في هذه الأثناء، في قسم الهندسة، قام فريق ماريا بدمج مساعدي برمجة الذكاء الاصطناعي بهدوء لتسريع عملية التطوير.
جميعهم يعرفون القواعد. جميعهم يعلمون أنهم يخالفونها. ومع ذلك، فهم يفعلون ذلك على أي حال.
زيادة استخدام أدوات الذكاء الاصطناعي:
شهدت أدوات الذكاء الاصطناعي انتشارًا واسعًا بسرعة هائلة، لدرجة أن موظف المكتب العادي يُدخل بيانات الشركة إليها خلال عطلة نهاية الأسبوع أكثر مما كان يفعل خلال يوم عمل مزدحم قبل عام واحد فقط. ووفقًا لتقرير Cyberhaven حول تبني الذكاء الاصطناعي والمخاطر، ارتفعت بيانات الشركات المتدفقة إلى منصات الذكاء الاصطناعي بنسبة 485% خلال العام الماضي.
وقد وجدت دراسة حديثة أجرتها شركة Software AG أن نصف الموظفين يستخدمون #أدوات_الذكاء_الاصطناعي لم توافق عليها شركاتهم قط. وبعد استطلاع آراء 6000 من العاملين في مجال المعرفة، اكتشف الباحثون أن هذا التوجه يمتد عبر مختلف القطاعات، ولا يتراجع الموظفون عن استخدامه. وفي الواقع، قال 46% من المستطلع آراءهم إنهم سيواصلون استخدام هذه الأدوات غير المصرح بها حتى لو حظرها رؤساؤهم تمامًا.
أهلًا بكم في مستقبل تبني الذكاء الاصطناعي:
لكن الشركات الأكثر ذكاءً لا تتخذ إجراءات صارمة، بل تقلب الأمور رأسًا على عقب. فبدلًا من لعب دور شرطي الذكاء الاصطناعي، تُطلق برامج عفو عن استخدام الذكاء الاصطناعي، مما يوفر للموظفين طريقة آمنة للإفصاح عن استخدامهم له دون خوف من العقاب. وبذلك، تُحوّل هذه الشركات خطرًا أمنيًا إلى قوة ابتكارية هائلة.

- لماذا يلجأ الموظفون إلى استخدام الذكاء الاصطناعي بأساليب غير مشروعة؟
لنكن صريحين: كم من الناس ينتظرون أسابيع حتى توافق إدارة تكنولوجيا المعلومات على أداة جديدة، مع علمهم أنها ستُسهّل عملهم؟ هذا هو بالضبط سبب ازدهار الذكاء الاصطناعي الخفي. لا يحاول الموظفون كسر القواعد، بل يريدون فقط أداء وظائفهم بشكل أفضل.
وهذه ليست مجرد حالة فريدة، إذ ينتشر هذا التوجه في جميع القطاعات، وفقًا لأحدث تقرير عن استخدام الذكاء الاصطناعي الخفي من Zendesk، بعنوان "اتجاهات تجربة العملاء 2025".
- تتصدر الخدمات المالية القائمة، بزيادة قدرها 250% في استخدام الذكاء الاصطناعي الخفي. ولا يتخلف قطاعا الرعاية الصحية والتصنيع كثيرًا، بنسبة 230% و233% على التوالي. ويكشف استطلاع رأي للمطورين أجراه Stack Overflow أن أكثر من نصف مطوري البرامج يعترفون باستخدام أدوات ذكاء اصطناعي غير مُصرّح بها. ولنكن صريحين، ربما لا يعترف النصف الآخر بذلك.
فهم مخاطر الذكاء الاصطناعي الخفي:

قبل أن أتعمق في الحلول، دعونا نتحدث عما يُقلق مسؤول أمن المعلومات أو مدير التكنولوجيا لديك. لا يقتصر الذكاء الاصطناعي الخفي على الاستخدام غير المصرح به للأدوات، بل يُمثل خطرًا داهمًا على الأمن والامتثال والتشغيل، وقد ينفجر في أي لحظة.
فكّر في الأمر، في كل مرة ينسخ فيها موظف بيانات الشركة ويلصقها في أداة ذكاء اصطناعي غير مصرح بها، فإنه يُسرّب أسرار الشركة إلى العالم. الأمر أشبه بترك مفاتيح منزلك تحت ممسحة الباب والدعاء ألا يعثر عليها أحد.
- إليك ما هو على المحك حقًا:
- تُصبح أصول شركتك الأكثر قيمة عُرضة للخطر. وعندما يُدخل الموظفون بيانات حساسة في أدوات ذكاء اصطناعي غير مصرح بها، فإنهم يتجاوزون جميع إجراءات الأمان التي وضعتها شركتك. بيانات العملاء، وسجلات الموظفين، والملكية الفكرية - كل ما يتطلبه الأمر هو رسالة مُفرطة المشاركة أو مرفق غير مُبالٍ لجعل المعلومات الخاصة علنية.
- ثم يأتي كابوس الامتثال. فكّر في لوائح حماية البيانات التي أمضى فريقك القانوني أشهرًا في إعدادها. في القطاعات الخاضعة للتنظيم، مثل الرعاية الصحية أو المالية، لا يقتصر الأمر على مجرد صداع، بل قد يؤدي إلى غرامات بملايين الدولارات وتدمير السمعة.
- ولكن المخاطر تتجاوز مجرد الأمن والامتثال. تخيّل أن أقسامًا مختلفة تستخدم أدوات ذكاء اصطناعي مختلفة لتحليل البيانات نفسها. سينتهي بك الأمر بنسخة مؤسسية من لعبة الهاتف، حيث تضيف كل أداة تحيزاتها وتفسيراتها الخاصة. وقبل أن تدرك ذلك، ستجد نفسك تتخذ قرارات عمل بناءً على مجموعة من مخرجات الذكاء الاصطناعي المتضاربة.
- لا تنسَ التحيز والأخلاقيات، فهذه الأدوات غير المرخصة للذكاء الاصطناعي لم تخضع لعملية المراجعة الأخلاقية في شركتك. قد تتخذ قرارات متحيزة بشأن التوظيف أو خدمة العملاء أو تخصيص الموارد، وقد لا تكتشف ذلك إلا بعد فوات الأوان.
- ماذا عن التأثير التشغيلي؟ تخيّل وجود نسخ متعددة من نفس الوثيقة. لا أحد يعرف أيها موثوق، والجميع يعمل وفق خطط عمل مختلفة. هذا التقسيم لا يضر بالكفاءة فحسب؛ بل سيضر بسمعة شركتك أيضًا عندما تصل نتائج الذكاء الاصطناعي غير المتسقة إلى العملاء.
مزايا برنامج العفو عن الذكاء الاصطناعي:
إليكم ما تدركه الشركات ذات الرؤية المستقبلية: #الذكاء_الاصطناعي_الخفي ليس تهديدًا، بل هو دراسة سوقية.
إذا كان الموظفون يخاطرون بوظائفهم لمجرد استخدام أدوات معينة، فربما تستحق هذه الأدوات إعادة النظر. فبدلًا من اعتبار الذكاء الاصطناعي الخفي جريمةً مؤسسية، تتعامل هذه الشركات معه كمنجمٍ ذهبيٍّ للأفكار. فعندما يخالف الناس القواعد لزيادة إنتاجيتهم، فهذا أمرٌ يستحق الدراسة.
وهنا يأتي دور برنامج العفو عن الذكاء الاصطناعي. فهو يُنشئ طريقةً منظمةً وخاليةً من المخاطر للموظفين للإفصاح عن استخدامهم للذكاء الاصطناعي، مما يسمح للشركات بتأمين أفضل الأدوات وتحسينها بدلًا من إهدار الموارد على التنفيذ.
كيفية تطبيق العفو عن الذكاء الاصطناعي في مؤسستك:
لا يقتصر تطبيق برنامج العفو عن الذكاء الاصطناعي على فتح الأبواب على مصراعيها أمام جميع أدوات الذكاء الاصطناعي المتاحة، بل يتعلق بإنشاء إطار عمل يُحوّل الذكاء الاصطناعي الخفي من كابوسٍ أمني إلى ميزتك التنافسية التالية. إليك دليل خطوة بخطوة لتحقيق ذلك:
1. بناءأساس #حوكمة_الذكاء_الاصطناعي:
تخيل هذا كوضع دستور لديمقراطية الذكاء الاصطناعي لديك. أنت بحاجة إلى قواعد، ولكن يجب أن تُمكّن الابتكار، لا أن تُخنقه. إليك الطريقة:
- صِغ استراتيجية مؤسسية للذكاء الاصطناعي تُحدد بوضوح ما هو مقبول وما هو غير مقبول. لكن تذكر، إذا بدت سياستك كدليل تقني، فلن يتبعها أحد.
- أنشئ إطار عمل لحوكمة الذكاء الاصطناعي يأخذ في الاعتبار العوامل التقنية والبشرية. نعم، هذا يعني التفكير في التحيز والثقافة والعناصر البشرية الفطرية المعقدة التي غالبًا ما ينساها زملاؤنا في الشؤون القانونية وتكنولوجيا المعلومات.
- شكّل لجنة إشراف على الذكاء الاصطناعي تضم أصواتًا من جميع أنحاء مؤسستك. صدقني، ستحتاج إلى مدخلات من قسم المبيعات والتسويق بقدر ما تحتاج إلى مدخلات من قسم تكنولوجيا المعلومات.
2. حوّل قسم #تكنولوجيا_المعلومات لديك من حارس بوابة إلى شريك ابتكار
هنا تحدث المفاجأة. بدلاً من استخدام أدوات غير مصرح بها، ركّز فريق تكنولوجيا المعلومات لديك على تمكين الذكاء الاصطناعي:
- أنشئ عملية موافقة سريعة لأدوات الذكاء الاصطناعي عالية الطلب. إذا استغرقت الموافقة على أداة ثلاثة أشهر، فسيصبح الموظفون غير مؤهلين.
- أنشئ "بيئات اختبار الذكاء الاصطناعي" حيث يمكن للفرق تجربة أدوات جديدة بأمان تحت إشراف تكنولوجيا المعلومات.
- طبّق مراقبة ذكية تُنبّه إلى المخاطر المحتملة دون أن تصبح "الأخ الأكبر". فكّر في حواجز الأمان، لا في العوائق.
٣. تسهيل الوصول إلى تعليم الذكاء الاصطناعي
المعرفة ليست مجرد قوة، بل هي حماية. إليك كيفية تحقيق ذلك:
- أطلق برنامجًا من أجل #محو_أمية_الذكاء_الاصطناعي يتجاوز التدريب الأساسي. وساعد الناس على فهم ليس فقط كيفية استخدام الذكاء الاصطناعي، بل كيفية استخدامه بمسؤولية.
- أنشئ "أبطال الذكاء الاصطناعي" في كل قسم، قادرين على سد الفجوة بين المتطلبات التقنية والاحتياجات العملية.
- استضف غداءً أسبوعيًا "لعرض ابتكارات الذكاء الاصطناعي" وجلسات تعليمية، حيث يمكن للفرق عرض سير عملهم وحلولهم في مجال الذكاء الاصطناعي. لا شيء يُحفّز أكثر من قصص نجاح الأقران.

٤. وزّع شبكة الأمان التقني الخاصة بك
نعم، لا تزال الضوابط التقنية ضرورية. ولكن يجب أن تُمكّن، لا أن تُقيّد:
- طبّق أدوات مراقبة خاصة بالذكاء الاصطناعي، يمكنها اكتشاف الاستخدام غير المصرّح به دون التأثير سلبًا على الإنتاجية.
- استخدم عمليات ضمان الجودة التي تكتشف المشكلات المحتملة قبل أن تتحوّل إلى مشاكل.
- أنشئ نقاط نهاية آمنة لواجهة برمجة التطبيقات (API) لخدمات الذكاء الاصطناعي المعتمدة، مما يُسهّل الموافقة على الأدوات الجيدة.
٥. بناء ثقافة إيجابية للذكاء الاصطناعي
هنا تكمن مشكلة معظم الشركات. التكنولوجيا هي الجزء السهل، لكن الثقافة هي جوهر العمل:
- اعتمد سياسة الباب المفتوح لمناقشات الذكاء الاصطناعي. أوضح أن طرح الأسئلة أفضل دائمًا من إخفاء الاستخدام.
- أنشئ حلقات تغذية راجعة منتظمة بين تكنولوجيا المعلومات والأقسام الأخرى. الهدف هو التعاون بعقلية منفتحة.
- اعترف بالابتكار المسؤول في مجال الذكاء الاصطناعي وكافئه.
٦. المراقبة، التكيف، والتطور
يجب أن يكون برنامج العفو عن استخدام الذكاء الاصطناعي الخاص بك ديناميكيًا بقدر ديناميكية التكنولوجيا التي يُديرها:
- أجرِ عمليات تدقيق منتظمة، ولكن ركز على التعلم بدلًا من المعاقبة.
- استخدم رؤى المراقبة لتحديد الاتجاهات والتكيف وفقًا لذلك.
- حافظ على تحديث قائمة أدواتك المعتمدة. قد يكون رفضك الأسبوع الماضي هو قبولك اليوم.
الخلاصة:
مفتاح النجاح هو تذكر أن برنامج العفو عن استخدام الذكاء الاصطناعي الخاص بك لا يهدف إلى التحكم، بل إلى التمكين. أنت لا تحاول منع الناس من استخدام الذكاء الاصطناعي؛ أنت تحاول مساعدتهم على استخدامه بالطريقة الصحيحة. إذا قمت بذلك بشكل صحيح، فستكون قادرًا على تحويل الذكاء الاصطناعي الظلي من تهديد أمني إلى ميزة تنافسية حقيقية.
الذكاء الاصطناعي ليس مجرد توجه عابر، بل يُغيّر جذريًا كيفية إنجاز العمل. لا يستخدم الموظفون هذه الأدوات تمردًا، بل يستخدمونها لأنها تُجدي نفعًا.
لذا، فإن السؤال الحقيقي ليس ما إذا كان الذكاء الاصطناعي يُستخدم في مؤسستك: إنه يُستخدم بالفعل. وليس ما إذا كان بإمكانك إيقافه. السؤال الحقيقي الوحيد هو: هل ستُحارب الذكاء الاصطناعي، أم ستستغله؟
أذكى الشركات لا تُقاوم الذكاء الاصطناعي، بل تُسخّره، مُحوّلةً الذكاء الاصطناعي الخفي إلى رصيد استراتيجي بدلًا من كابوس الامتثال. ثورة الذكاء الاصطناعي هنا بالفعل. والشيء الوحيد المتبقي هو تحديد أي جانب من التاريخ ستتخذه شركتك.
المصدر: موقع builtin بتصرف
إذا أعجبك المقال يمكنك مشاركته مع الأصدقاء، وإن كان لديك أي اقتراحات اكتب لنا في التعليقات.
يمكنك أيضاَ قراءة:
روبوت وسائل التواصل الاجتماعي.. ما هي وما استخداماتها وهل يمكن إيقافها؟
عن الكاتب
خبرة في التدريس الأكاديمي في كليات الهندسة والإعلام والتربية لأكثر من 22 عاماً في التعليم العام والخاص والافتراضي. مدير ومصمم عدد من مواقع الإنترنت ومنصات التواصل الاجتماعي، أذكر منها موقع أيقونات للشخصيات الملهمة والمبدعة، وصفحة كشف التزييف على الفيس بوك وعدة حسابات ومواقع أخرى