شرکت OpenAI سازنده چتبات هوش مصنوعی ChatGPT، از مجموعهای از دستورالعملها و ابزارهای تازه موسوم به چهارچوب آمادگی (Preparedness Framework) برای نظارت بر هوش مصنوعی و خطرات آن رونمایی کرد. این کار از طریق گروه مشورتی برای تضمین ایمنی انجام خواهد شد که حتی حق وتوی نظرات سم آلتمن را خواهد داشت. به دنبال جنجالهای زیادی که با اخراج و بازگشت سم آلتمن به سمت مدیرعاملی OpenAI رخ داد، این شرکت حالا در وبلاگش از چهارچوب جدیدی برای آمادگی در برابر خطرات رونمایی کرده است. به نظر میرسد که هدف از انتشار عمومی این سند، نمایش مسیر مشخص شرکت درزمینه شناسایی، تحلیل و تصمیمگیری پیرامون ریسکهای جدی در خصوص مدلهای هوش مصنوعی خواهد بود.
چهارچوب آمادگی OpenAI برای تضمین ایمنی مدلهای هوش مصنوعی
طبق این چهارچوب، مدلهایی که در دست توسعه قرار دارند، توسط تیم ایمنی سیستمها ارزیابی خواهند شد. مدلهای پیشگام OpenAI نیز تحت نظارت تیم آمادگی قرار میگیرند تا ریسکهای احتمالی پیش از عرضه مدلها، شناسایی و ارزیابی شوند. افزونبراین، تیمی دیگر به نام فراهمسویی وجود دارد که روی حدومرزهای نظری برای مدلهای فرا هوشمند کار میکند. دو دسته اول که ملموسترند و مدلهای آنها را در اختیارداریم، کار راحتتری دارند و درک فعالیتهای آنها نیز آسانتر است. این تیمها باید براساس چهار طبقهبندی ریسکها را ارزیابی کنند: امنیت سایبری، قانعکنندگی مثلاً در ارائه اطلاعات غلط، آناتومی مدلها (قابلیتهای عملکردیش) و CBRN مخفف تهدیدات شیمیایی، زیستی، رادیولوژیک و هستهای؛ مثلاً در قابلیت هوش مصنوعی در تولید پاتوژنهای جدید.
تیم آمادگی اولین بار در ماه اکتبر معرفی شد و یکی از سه گروه مجزایی است که بر ایمنی هوش مصنوعی در این استارتاپ نظارت میکند. مدیر این تیم الکساندر مادری است که امید دارد بتواند با این دستورالعملهای جدید، ریسکهای احتمالی را بهموقع در مدلهای هوش مصنوعی شناسایی کند. مدتهاست که نگرانیهایی درباره مدلهای هوش مصنوعی قدرتمند مطرح میشود و به نظر میرسد که این اقدام OpenAI پاسخی در برابر تشدید این نگرانیها با توجه به تحولات اخیر این شرکت باشد.