فاجعه کانادا: آیا هوش مصنوعی قاتل بود؟
OpenAI بر مسئولیت، اخلاق و امنیت هوش مصنوعی در ChatGPT و گزارش محتوای خطرناک تاکید کرد.
شرکت OpenAI، پیشگام در توسعه هوش مصنوعی، فاش کرده است که پیش از وقوع یک حادثه تیراندازی مرگبار در کانادا، درباره لزوم گزارش مکالمات نگرانکننده تولید شده توسط چتبات خود، ChatGPT، به پلیس این کشور بحث و تبادل نظر کرده بود. با این حال، در نهایت تصمیم بر عدم اطلاعرسانی به مقامات به دلیل عدم احراز آستانه لازم برای گزارشدهی اتخاذ شد.
بررسی محتوای نگرانکننده ChatGPT
این بحثهای داخلی در OpenAI حول محور محتوای خاصی از مکالمات ChatGPT شکل گرفت که به نظر میرسید ماهیتی نگرانکننده دارند و بالقوه میتوانستند با فعالیتهای خطرناک مرتبط باشند. این وقایع در بازه زمانی قبل از رخ دادن فاجعه تیراندازی در کانادا اتفاق افتاده و اکنون توجهات را به نقش و مسئولیتپذیری هوش مصنوعی در چنین حوادثی جلب کرده است.
معیارهای گزارشدهی و تصمیم نهایی
بر اساس اطلاعات منتشر شده، تیمهای داخلی OpenAI پس از بررسی دقیق این مکالمات، به این نتیجه رسیدند که محتوای مورد بحث، علیرغم ماهیت نگرانکنندهاش، فاقد استانداردهای مشخص یا آستانه قانونی لازم برای گزارشدهی مستقیم و فوری به نهادهای انتظامی کانادا بوده است. این تصمیم، پرسشهایی اساسی را در مورد پروتکلهای گزارشدهی محتوای تولید شده توسط هوش مصنوعی، تعاریف "آستانه لازم" و حدود مسئولیت شرکتهای توسعهدهنده در قبال خروجیهای سیستمهایشان مطرح میسازد.
پیامدهای گسترده برای هوش مصنوعی
این رویداد بار دیگر بحثهای گستردهای را در محافل تخصصی و عمومی درباره ضرورت تعریف چارچوبهای اخلاقی و قانونی مشخص برای شناسایی و گزارش محتوای بالقوه خطرناک تولید شده توسط سیستمهای هوش مصنوعی برانگیخته است. همچنین، مسئولیتپذیری توسعهدهندگان هوش مصنوعی در پیشگیری از سوءاستفادههای احتمالی از این فناوریهای قدرتمند و تاثیر آنها بر امنیت جامعه، بیش از پیش مورد تاکید قرار گرفته است.