محادثات الذكاء الاصطناعي في المحاكم: تحذير قانوني جديد

يحذر محامون في الولايات المتحدة عملائهم بشدة من الاعتماد على أدوات الذكاء الاصطناعي للحصول على استشارات قانونية، خاصة في القضايا الحساسة، وذلك بعد حكم قضائي حديث يفتح الباب لاستخدام هذه المحادثات كأدلة في المحاكم.

جاء هذا التحذير عقب قرار للقاضي الفيدرالي جيد راكوف في نيويورك، قضى بعدم أحقية رئيس تنفيذي سابق في حجب محادثاته مع الذكاء الاصطناعي عن المدعين في قضية احتيال مالي. هذا الحكم أثار قلقًا واسعًا بين المتخصصين القانونيين، الذين أشاروا إلى أن المحادثات مع روبوتات مثل ChatGPT وClaude يمكن تقديمها كأدلة في قضايا جنائية أو مدنية، نظرًا لعدم تمتعها بالحماية القانونية لسرية العلاقة بين المحامي وموكله.

على عكس الاستشارات القانونية التقليدية التي تتمتع بالسرية بموجب القانون الأمريكي، لا تشمل محادثات الذكاء الاصطناعي مبدأ "امتياز المحامي والموكل". هذا الوضع دفع العديد من مكاتب المحاماة الكبرى إلى إصدار إرشادات لعملائها لتقليل مخاطر استخدام هذه المحادثات كأدلة ضدهم.

تتضمن هذه الإرشادات بنودًا صريحة في العقود تحذر العملاء من أن مشاركة تفاصيل القضايا أو نصائح المحامي مع منصات الذكاء الاصطناعي قد يؤدي إلى فقدان الحماية القانونية. وقد سبق للقضاء أن أكد في قضية رجل الأعمال برادلي هيبنر أن المحادثات مع روبوت Claude لإعداد تقارير قضائية لا تُعتبر محمية قانونيًا، لأن المحامين لم يكونوا طرفًا مباشرًا فيها، ولا توجد علاقة قانونية تضمن السرية بين المستخدم والمنصات.

من جهة أخرى، لا يزال القضاء الأمريكي يتعامل مع هذه المسألة بشكل متفاوت، حيث صدرت أحكام أخرى اعتبرت بعض محادثات الذكاء الاصطناعي جزءًا من العمل الشخصي للمستخدم ولا يمكن استخدامها كدليل ضده. تجدر الإشارة إلى أن سياسات الخصوصية لشركات مثل OpenAI وAnthropic تسمح بمشاركة بيانات المستخدمين مع أطراف ثالثة، وتؤكد على ضرورة استشارة متخصصين قانونيين قبل الاعتماد على هذه الأدوات.

مع التطور المستمر لتطبيقات الذكاء الاصطناعي في المجال القانوني، يتوقع الخبراء ظهور المزيد من الأحكام القضائية التي ستوضح حدود استخدام هذه المحادثات كأدلة. وحتى ذلك الحين، يبقى التحذير الأهم من المحامين قائمًا: لا تشارك تفاصيل قضيتك مع أي طرف خارج فريقك القانوني، بما في ذلك روبوتات الذكاء الاصطناعي.

أخبار من القسم

اشترك الآن بالنشرة الإخبارية