الذكاء الاصطناعي في الشركات: قوة ثورية أم تهديد قانوني؟
رغم فوائده في تقليل التّكاليف وزيادة الإنتاجيّة، يحذّر الخبراء من مخاطر قانونيّةٍ وأخلاقيّةٍ قد تواجه الشّركات الصّغيرة بسبب استخدام الذكاء الاصطناعي

يعدّ الذكاء الاصطناعي من الموجات التّقنيّة الجارفة الّتي تظهر فجأةً، ثمّ تنتشر بسرعةٍ في كلّ مكانٍ: في أدواتنا التّرفيهيّة، وفي منتجاتٍ قد يبدو وجود الذكاء الاصطناعي فيها مفاجئاً (هل جرّبت فرشاة أسنانٍ ذكيّةً من قبل؟)، وبالطّبع في بيئات العمل والمكاتب.
وبالنّسبة للشّركات الصّغيرة، يبدو تبنّي الذكاء الاصطناعي قراراً منطقيّاً وسهلاً؛ فهو قادرٌ على تعزيز قدرات الفريق لسدّ الفجوات المهاريّة، وتحسين كفاءة العاملين، بل ويمكن لأدوات الذكاء الاصطناعي المؤتمتة أن تتولّى قريباً عدداً من المهامّ المكتبيّة الرّوتينيّة الّتي تستهلك وقت الموظّفين فيما لا طائل منه. ولٰكن، كما هو الحال مع أيّ تكنولوجيا تحوّليّةٍ، من السّهل أن ننساق وراء الحماس، ونغفل عن الجانب الآخر من القصّة: المخاطر الّتي تصاحب الفوائد.
تدرك إم جي جيانغ، الرّئيسة التّنفيذيّة للاستراتيجيّة في شركة "كريدبلي" (Credibly) -وهي منصّةٌ لتمويل الشّركات الصّغيرة مقرّها نيويورك-تماماً تعقيدات هٰذا المشهد. وهي تُطلق تحذيراً واضحاً: لا تتجاهلوا التّكاليف والمخاطر الأخلاقيّة عند استخدام أدوات الذكاء الاصطناعي في أماكن العمل، وتسأل سؤالاً جوهريّاً: من سيتحمّل المسؤوليّة القانونيّة عندما ترتكب أداةٌ توليديّةٌ للذكاء الاصطناعي خطأً فادحاً؟
يرى بعض المدراء التّنفيذيّين في الذكاء الاصطناعي وسيلةً فعّالةً لتقليل التّكاليف، وقد تكون إحدى أبرز الاستراتيجيّات الّتي يطرحونها هي استبدال بعض الموظّفين بأدوات الذكاء الاصطناعي. وبنظرةٍ عقلانيّةٍ باردةٍ، يبدو ذٰلك مغرياً: لا يحتاج الذكاء الاصطناعي إلى تأمينٍ صحّيٍّ، ولا يضرب عن العمل، ويعمل على مدار السّاعة دون كللٍ.
ولٰكن ترى جيانغ أنّ هٰذه النّظرة خاطئةٌ تماماً. وفي مقابلةٍ بريديّةٍ مع مجلّة ".إنك" (.Inc)، أوضحت: "أنّ بعض الشّركات قد تستخدم الذكاء الاصطناعي فعلاً بهدفٍ واضحٍ يتمثّل في الإبقاء على البشر ضمن العمليّة، لكن بجعلهم أكثر إنتاجيّةً وكفاءةً، إلّا أنّ شركاتٍ أخرى ستتعمّق في استخدام الذكاء الاصطناعيّ بهدفٍ صريحٍ يتمثّل في إلغاء العنصر البشريّ بالكامل".
هل الذكاء الاصطناعي فعّالٌ فعلاً؟ تعتمد فاعليّة الذكاء الاصطناعي في الشّركات على الطّريقة الّتي يقاس بها العائد، وعلى ما إذا كانت الأداة تستخدم لاستبدال الموظّفين أو لتعزيز قدراتهم. وهنا توضّح جيانغ أنّ المشكلة تكمن في أنّ أدوات الذكاء التّوليديّة قد تقدّم معلوماتٍ غير دقيقةٍ، لٰكنّها تبدو كأنّها صحيحةٌ -وهو ما يعرف بـ"الهلوسات" (hallucinations)- ولا يمكن إزالتها تماماً، بل فقط التّخفيف من حدّتها. لذا، قد ينطوي استخدام الذكاء الاصطناعي في اتّخاذ قراراتٍ تجاريّةٍ على مخاطر حقيقيّةٍ.
كما تضيف أنّ: "لا يستطيع الذّكاء التوليديّ شرح كيف توصّل إلى نتائجه"؛ لذٰلك فإنّ الإشراف البشريّ سيبقى ضروريّاً، خاصّةً في المجالات الّتي ترتبط بمخاطر عاليةٍ. وحتّى أكثر من ذٰلك، ترى جيانغ أنّ التّفاعل البشريّ قد يصبح ميّزةً ذات قيمةٍ مضافةٍ؛ لأنّ العملاء سيصرّون على التّحدّث إلى إنسانٍ حقيقيٍّ، ولو بدا الأمر واعداً… الحذر واجبٌ.
ربّما يبدو هٰذا وكأنّه دعمٌ لاستخدام الذكاء الاصطناعي لتحسين كفاءة الأعمال، شرط وجود رقابةٍ بشريّةٍ واعيةٍ. ولٰكن جيانغ تضيف مباشرةً تحذيراً مهمّاً: ترى أنّ الذكاء الاصطناعي يفتح الباب لمسؤوليّاتٍ قانونيّةٍ جديدةٍ لم تُفهم بعد بشكلٍ جيّدٍ من قبل الشّركات. والسّبب في ذٰلك، حسب قولها، أنّ المعرفة المؤسّسيّة والأطر التّنظيميّة الحاليّة صُمّمت لفهم المسؤوليّة حين يكون الفاعلون بشراً، بينما يتطوّر الذكاء الاصطناعي بسرعةٍ هائلةٍ تفوق قدرة القوانين على المواكبة.
وتقول جيانغ: "هناك نوعٌ جديدٌ من الحسابات ينبغي على الشّركات فهمه. لا تتعلّق القضيّة فقط بمقارنة تكاليف الذكاء الاصطناعي الحاليّة بتكاليف الرّواتب، بل تشمل أيضاً الكلفة المستقبليّة للذكاء التوليدي، بسبب احتكار عددٍ قليلٍ من الشّركات التّقنيّة لسلطة التّسعير، وما يترتّب على ذلك من تبعاتٍ قانونيّةٍ متوقّعةٍ، وأعباءٍ تتعلّق بالتّتبّع والإشراف البشريّ".
بمعنىً أوضح: حتّى إن ظننت أنّ أدوات الذكاء الاصطناعي ستوفّر لك المال، فقد تفاجأ لاحقاً بأنّ المخاطر والتّكاليف غير المرئيّة قد تجعل الأمور أكثر تعقيداً. ولهٰذا السّبب، قد تُعرّض بعض الشّركات الصّغيرة نفسها لمشاكل قانونيّةٍ معقّدةٍ ومكلفةٍ؛ لأنّها لم تدرج المخاطر المحتملة في خططها طويلة الأجل.
وفي نقطةٍ أخرى ترى جيانغ أنّ على الشّركات الانتباه لها: الفجوة بين ما يقال عن أمان الذكاء الاصطناعي وما يعتقده النّاس فعلاً؛ فقد أشارت إلى استطلاع رأيٍ أجرته شركة "سيلزفورس" (Salesforce) كشف عن الآتي:
- %43 من الجمهور لا يثقون في الشّركات لاستخدام الذكاء الاصطناعي بشكلٍ أخلاقيٍّ.
- %89 يريدون معرفة ما إذا كانوا يتعاملون مع إنسانٍ أم روبوتٍ.
- %80 يطالبون بأن يتمّ التّحقّق من نتائج الذكاء الاصطناعي بواسطة بشرٍ.
بغضّ النّظر عن مدى التزام شركتك بمبادئ الأمان والأخلاق، قد لا يثق بك الرّأي العامّ ببساطةٍ، حتّى لو أكّدت لهم أنّ أدواتك الذّكيّة آمنةٌ وفعّالةٌ.
لماذا عليك أن تهتمّ؟
السّبب الأساسيّ بسيطٌ: ما تظهره تجربة كريدبلي وخبرة جيانغ هو أنّ استبعاد البشر من العمليّة واستبدالهم بأدوات الذكاء الاصطناعي قد لا يخفّض التّكاليف كما تعتقد، بل على العكس؛ قد يعرّضك لمشكلاتٍ قانونيّةٍ معقّدةٍ. والمشكلة الأكبر؟ أنّ الأخطاء الّتي يرتكبها الذكاء الاصطناعي ليست مسألة "هل ستحدث؟ بل متى ستحدث؟".
شاهد أيضاً: استعدوا لدفع ضريبة الذكاء الاصطناعي في عام 2025!