خالق ChatGPT در مسیر ایمنی هوش مصنوعی قدم برمیدارد
هوش مصنوعی همانقدر که میتواند مفید و جذاب باشد، ممکن است برای انسانها خطر ایجاد کند. OpenAI بهدنبال حل این مشکل است.
هوش مصنوعی با سرعت زیادی در حال رشد و پیشرفت است و قطعاً این موضوع میتواند جذابیتهای زیادی داشته باشد و زندگی افراد را سادهتر کند. بااینحال، درمقابل این فناوری خطرهایی هم دارد که چشمپوشیدنی نیست و میتواند در آیندهی نزدیک باعث ایجاد مشکلات اساسی شود.
شرکت OpenAI بهخوبی از خطرات هوش مصنوعی اطلاع دارد و حالا چارچوبی را برای کنترل و رسیدگی به ایمنی مدلهای پیشرفتهی خود ارائه کرده است.
یکی از مواردی که در چارچوب OpenAI وجود دارد، به هیئتمدیرهی شرکت امکان میدهد تا تصمیمهای مختلف مدیران اصلی را بیاثر کند.
طبق چارچوب جدید، OpenAI تنها درصورتی میتواند از جدیدترین فناوریهای خود استفاده کند که این مدلهای جدید ازنظر تهدیدهای هستهای و امنیت سایبری بیخطر تلقی شوند. شرکت سم آلتمن در حال ایجاد گروه مشاورهای است تا گزارشهای امنیتی را دریافت کنند و آنها را بهدست مدیران عالیرتبه برسانند.
از انتشار عمومی ChatGPT حدود یک سال میگذرد و در این مدت توسعهدهندگان هوش مصنوعی و کاربران عادی بهخوبی متوجه شدهاند که این فناوری تا چه حد میتواند خطرناک باشد.
هوش مصنوعی مولد عملکرد شبیه به انسان در پاسخ به دستورهای متنی دارد و گاهی اوقات حتی خلاقیت از خود نشان میدهد. این ممکن است در آیندهی نزدیک باعث ایجاد مشکلهای امنیتی و سایبری شود و زمینه را برای سوءاستفادهی افراد مهیا کند.
بسیاری از رهبران و توسعهدهندگان هوش مصنوعی اوایل سال ۲۰۲۳ نامهای سرگشاده امضا کردند و دربارهی خطرهای متعدد GPT-4 هشدار دادند و حالا بهنظر میرسد شرکت OpenAI قصد دارد مشکلات احتمالی را بهحداقل برساند.
برای ورود به کانال تلگرام فرتاک نیوز کلیک کنید.