عند النظر إلى المخاطر المحتملة للذكاء الاصطناعي التي تمت مناقشتها حتى الآن، تؤدي هذه المخاوف إلى مسألة المسؤولية القانونية، إذا كان نظام الذكاء الاصطناعي مصمماً بخوارزميات غامضة، ويسمح التعلم الآلي لإتخاذ القرار بتحسين نفسه، فمن المسؤول قانونياً عن النتيجة؟
هل هي الشركة أم المبرمج أم النظام؟
هذا الخطر ليس نظرياً في عام 2018 اصطدمت سيارة ذاتية القيادة بأحد المشاة وقتلته في هذه الحالة لم يكن سائق النسخ الاحتياطي البشري للسيارة منتبهاً وكان مسؤولاً عندما فشل نظام الذكاء الاصطناعي،
مخاطر الذكاء الاصطناعي كبيرة، لكن استخدام هذه الأدوات ونموها أمر حتمي أيضاً حيث تتجاوز الفوائد مكاسب الكفاءة البسيطة وتشمل سيناريو اتخاذ قرار أكثر إنصافاً عندما يتم تدريب الخوارزميات على تجنب التحيز مع زيادة فهمنا من منظور إدارة المخاطر والتدقيق حيث يجب أن نبحث عن مفتاح المميزات في أنظمة الذكاء الاصطناعي ويجب أن تتضمن أنظمة الذكاء الاصطناعي وثائق تصميم واضحة وأن يشمل التعلم الآلي الاختبار والتحسين ويحظى التحكم في الذكاء الاصطناعي وحوكمته بالأولوية على الخوارزميات والكفاءة ونتحمل جميعاً مسؤولية معرفة المزيد عن مخاطر الذكاء الاصطناعي والتحكم في تلك المخاطر ولن يختفي الموضوع وستستمر المخاطر في النمو والتغير مع زيادة تقدم التكنولوجيا وانتشارها وستكون المنظمات التي تتبنى النقاط الرئيسية الثلاث المذكورة أعلاه مجهزة بشكل أفضل لإدارة مخاطر أنظمة الذكاء الاصطناعي التي قد يكون لها عواقب قانونية وخيمة .