اظهار نگرانی مدیر عامل OpenAI از توانایی بالقوه ChatGPT برای حذف برخی زمینه‌های شغلی

نمایش خبر

فهرست اخبار
تاریخ : 1402/1/2        نویسنده: مریم رشنو
برچسب‌ها : هوش مصنوعی Artificial Intelligence ، اوپن ا آی OpenAI ، چت جی پی تی ChatGPT ، مایکروسافت Microsoft
واحد خبر mobile.ir : سام آلتمن (Sam Altman)، مدیر عامل OpenAI اخیراً نگرانی های خود را در مورد تأثیر بالقوه جدیدترین محصول هوش مصنوعی این شرکت یعنی ChatGPT ابراز کرده است. آلتمن در مصاحبه اخیر خود باABC News اعتراف کرده که از توانایی این چت‌بات در زمینه حذف برخی زمینه‌های شغلی «اندکی بیمناک است». او همچنین در مورد احتمال استفاده از ChatGPT برای اهداف مخرب، از جمله پخش اطلاعات نادرست در مقیاس وسیع یا حملات سایبری ابراز نگرانی کرده است. او در این گفت‌وگو تأکید کرده که با وجود تحت کنترل بودن ChatGPT، این ریسک وجود دارد که سایر افراد یا سازمان‌ها محدودیت‌های ایمنی مشابه با این شرکت را اِعمال نکنند و این امر به بروز مشکلاتی بینجامد.

آلتمن در مصاحبه خود با ABC News اعلام کرده که جامعه زمان محدودی برای مقررا‌ت‌گذاری و مدیریت تأثیرات بالقوه فناوری هوش مصنوعی از جمله ChatGPT در اختیار دارد. مدیر عامل 37 ساله OpenAI در این گفت‌وگو از تماس منظم با مقامات دولتی برای بررسی شرایط سخن گفته و از قانون‌گذاران و مردم خواسته به این فناوری بیشتر توجه کنند و بازخوردهای مناسب را جهت مهار پیامدهای بالقوه منفی ناشی از استفاده گسترده از این چت‌بات ارائه دهند. نگرانی خاص آلتمن آن است که «این مدل‌ها می‌توانند برای پخش اطلاعات نادرست در مقیاس وسیع مورد استفاده قرار گیرند. [به علاوه] با بهبود توانایی فناوری[هایی از این دست] در نوشتن کدهای رایانه‌ای ممکن است از این ابزارها برای حملات سایبری تهاجمی استفاده شود.»

او ماه میلادی گذشته نیز در یک رشته توئیت هشدار داده بود که ممکن است جهان از ظهور هوش مصنوعی با قابلیت‌های «بالقوه ترسناک» فاصله چندانی نداشته باشد. او در این توئیت‌ها از تدوین مقررات برای هوش مصنوعی حمایت کرده و با حیاتی خواندن تصویب قوانین مناسب، از نیاز جامعه برای سازگاری با شرایط سخن گفته بود. این ابراز نگرانی در شرایطی است که OpenAI آخرین نسخه از مدل هوش مصنوعی خود یعنی GPT-4 را کمتر از چهار ماه پس از انتشار نسخه اولیه منتشر کرده و این برنامه به اپلیکیشن مصرفی با سریع‌ترین رشد در تاریخ تبدیل شده است؛ مدلی که بنا بر ادعای شرکت، نسبت به نسخه‌های قبلی «خلاقانه‌تر و مشارکتی‌تر» است. این شرکت همچنین اشتراک ChatGPT Plus را به کاربران ارائه کرده که دسترسی زودهنگام به قابلیت‌های جدید شامل GPT-4 را فراهم می‌سازد.

به گفته آلتمن گرچه نسخه جدید بی‌عیب و نقص نیست، اما در آزمون وکالت (bar exam) در ایالات متحده آمریکا 90 درصد و در آزمون ریاضی SAT نمره تقریباً عالی را کسب کرده است. همچنین این ابزار هوش مصنوعی می‌تواند کدهای کامپیوتری را در اکثر زبان‌های برنامه‌نویسی بنویسد. همچنین GPT-4 قادر است ترکیبی از متن و تصویر را به عنوان ورودی بپذیرد و گفته می‌شود که نه تنها دقت آن نسبت به نسخه‌های قبلی بیشتر است، بلکه می‌تواند مکالمه‌های طولانی‌تری نیز با کاربران داشته باشد. البته قابلیت درک تصویر در حال حاضر در اختیار همه کاربران قرار ندارد و ظاهرا مجموعه کوچکی از کاربران از جمله کم‌بینایان به عنوان بخشی از تست بتای این مدل به آن دسترسی دارند.

به گفته آلتمن، مدل‌هایی که این شرکت ایجاد می‌کند در واقع موتور استدلالی هستند و نه یک پایگاه داده واقعی. از این رو آنچه این ابزارها را نیازمند بررسی می‌کند، نه توانایی به خاطر سپردن، بلکه قدرت استدلالی آنهاست. این مهندس هوش مصنوعی در ادامه به مشکلات احتمالی توسعه هوش مصنوعی پیشرفته و تأثیر آن بر کاهش موقعیت‌های شغلی انسان‌ها اشاره کرده است. او ضمن ابراز اطمینان از توانایی بشر برای انطباق با تغییرات تکنولوژی، هشدار می‌دهد که تغییرات سریع در حوزه فناوری ممکن است به چالش‌های مهمی بینجامد. در واقع، آلتمن به ماهیت پیچیده و اغلب غیر قابل پیش‌بینی فناوری هوش مصنوعی و تأثیر بالقوه آن بر جامعه تأکید می‌کند. از دید او، این فناوری قادر است بسیاری از صنایع را متحول کند و زندگی را از راه‌های مختلف بهبود بخشد. اما در عین حال چالش‌ها و خطرات قابل توجهی نیز به همراه دارد که باید به آنها توجه شود. از این رو، جامعه باید همراه با تکامل هوش مصنوعی تأثیرات آن را به دقت مورد بررسی و مدیریت قرار دهد.

البته به جز آلتمن کسان دیگری نیز در این باره هشدار داده‌اند. به عنوان مثال ایلان ماسک، مدیر عامل تسلا و یکی از نخستین سرمایه‌گذاران OpenAI (زمانی که هنوز یک شرکت غیرانتفاعی بود) بارها هشدار داده است که هوش مصنوعی یا آنچه هوش مصنوعی عمومی (AGI) نامیده می‌شود، می‌تواند از یک سلاح هسته‌ای نیز به مراتب خطرناک‌تر باشد. به گفته ماسک، مایکروسافت که میزبان ChatGPT در موتور جست‌وجوی بینگ است، بخش نظارت جنبه‌های اخلاقی خود را منحل کرده و عملا نظارتی بر هوش مصنوعی وجود ندارد. او از اهمیت مقررات ایمنی هوش مصنوعی سخن گفته و درباره تاثیر این فناوری بر مشاغل انسانی هم یاد کرده است.

گاردین نیز اخیراً در تحلیل خود از ChatGPT هشدار داده که آنچه از کاربرد این ابزار به دست می‌آید، به چیزی که به آن وارد می‌شود بستگی دارد. به نوشته این روزنامه «ما لایق ابزارها، رسانه‌ها و جامعه بهتری هستیم و تنها زمانی به آن‌چه که لیاقت‌مان است می‌رسیم که بتوانیم به طور کامل در آنها مشارکت داشته باشیم.»

منبع : ABC News