تأکید سوندار پیچای بر لزوم نظارت قانونی بر هوش مصنوعی

نمایش خبر

فهرست اخبار
تاریخ : 1398/11/4        نویسنده: مسعود بهرامی شرق
برچسب‌ها : سوندار پیچای Sundar Pichai ، هوش مصنوعی Artificial Intelligence ، آلفابت Alphabet ، گوگل Google
واحد خبر mobile.ir : سوندار پیچای، مدیرعامل آلفابت و گوگل، در سرمقاله‌ای که به‌تازگی در نشریه فایننشال تایمز منتشر شده است، ضمن اشاره به ظرفیت‌های مثبت و منفی هوش مصنوعی، بر لزوم سامان‌دهی و قانونمند کردن این فناوری تأکید کرد. به عقیده وی، درست نیست که شرکت‌ها فقط به تولید تکنولوژی‌های جدید بپردازند و اجازه دهند نیروهای موجود در بازار هر گونه که تمایل دارند، درباره نحوه استفاده از آنها تصمیم بگیرند. از یک طرف، سوء استفاده از تشخیص چهره و پدیده deepfake (جعل عمیق) می‌تواند جوامع را با مشکلات اساسی روبرو کند. از سوی دیگر، جنبه‌های مثبت این فناوری – مثل کاربردهای آن در پزشکی، هواشناسی، حمل و نقل و ... – می‌تواند بسیار کارگشا باشد.

سوندار پیچای مدیرعامل گوگل و آلفابت

در ادامه، برگردان آزادی از سرمقاله پیچای در فایننشال تایمز را مشاهده می‌فرمایید:

وقتی در کشور هند بزرگ می‌شدم، مجذوب تکنولوژی بودم. هر اختراع جدیدی، زندگی خانواده من را به شکل معناداری تغییر می‌داد. تلفن موجب شد تا برای اطلاع از جواب آزمایش‌ها، از طی مسافت‌های طولانی به بیمارستان جلوگیری شود. با وجود یخچال، وقت کمتری برای تهیه غذا صرف می‌شد. تلویزیون این امکان را برای ما فراهم کرد تا بتوانیم اخبار جهان و مسابقات کریکت را از نزدیک ببینیم؛ چیزی که قبلا در هنگام گوش دادن به رادیو، تنها تصور آن را می‌کردیم.

حال، من این افتخار را دارم که در شکل‌دهیِ تکنولوژی‌هایی که می‌توانند زندگی افراد را در سراسر دنیا تغییر دهند، سهیم باشم. یکی از آینده‌دارترینِ این فناوری‌ها، هوش مصنوعی است. تنها در این ماه، سه مثال ملموس از تلاش آلفابت و گوگل برای استفاده حداکثری از ظرفیت‌های هوش مصنوعی را به نمایش گذاشتیم. مقاله اخیری که در مجله Nature درباره تحقیقات ما به چاپ رسیده، به خوبی نشان می‌دهد که چگونه یک مدل هوش مصنوعی می‌تواند با دقت بیشتری در تشخیص سرطان سینه از روی نتایج ماموگرافی، به پزشکان کمک کند. به علاوه، در تلاشیم تا با استفاده از هوش مصنوعی، بتوانیم پیش‌بینی بارش باران را با سرعت و دقت بالاتری (نسبت به مدل‌های کنونی) انجام دهیم تا به این ترتیب بتوان با پدیده تغییرات اقلیمی مبارزه کرد. همچنین، شرکت هواپیمایی لوفت‌هانزا، با همکاری با واحد رایانش ابری ما، به دنبال آن است تا با بهره‌گیری از هوش مصنوعی، میزان تأخیر در پروازها را کاهش دهد.

اما تاریخ پر است از نمونه‌هایی که نشان می‌دهد، جنبه‌های مثبت تکنولوژی هیچ‌گاه تضمین شده نیستند. به عنوان مثال، با اختراع موتورهای درون‌سوز، بشر توانست از محدوده سرزمینی خود به نقاط دوردست سفر کند. اما همین امر میزان تصادف‌ها را افزایش داد. اینترنت امکان برقراری ارتباط با همه کس و گرفتن اطلاعات از همه جا را ممکن ساخت، اما ناخواسته به نشر اکاذیب و شایعات نیز دامن زد.

این درس‌ها به ما می‌آموزند که باید نسبت به آنچه که ممکن است به بیراهه کشیده شود، چشمان‌مان را باز کنیم. درباره عواقب منفی استفاده از هوش مصنوعی – از deepfake (جعل عمیق) گرفته تا سوء استفاده از تشخیص چهره – نگرانی‌های جدی وجود دارد. هرچند قبلا برای رفع این نگرانی‌ها تلاش‌هایی صورت گرفته، اما خواه ناخواه چالش‌های بیشتری در این مسیر پیش روی ماست که یک شرکت یا صنعت به تنهایی نمی‌تواند آنها را حل کند.

چندی‌ست اتحادیه اروپا و ایالات متحده در این زمینه اقدام به تنظیم طرح‌های نظارتی نموده‌اند. البته به منظور اجرایی شدن استانداردهای جهانی، بایستی ابتدا به یک هم‌سویی بین‌المللی دست یافت. برای نیل به این هدف، نیازمند رسیدن به توافق بر سر ارزش‌های اساسی هستیم. کمپانی‌هایی مثل ما، نمی‌توانند فقط به تولید تکنولوژی‌های جدید پرداخته و اجازه دهند نیروهای موجود در بازار هر طور که می‌خواهند، درباره نحوه استفاده از آنها تصمیم بگیرند. ما وظیفه داریم مطمئن شویم که تکنولوژی برای رفاه حال مردم تحت کنترل درآمده و در دسترس آنها قرار می‌گیرد.

لذا در حال حاضر هیچ سؤالی در ذهنم نیست که موجب تشکیک من درباره نظارت قانونی بر هوش مصنوعی باشد. تنها سؤالی که باقی مانده آن است که چگونه باید به این مسأله ورود کرد؟

همین امر گوگل را بر آن داشت تا در سال 2018 ضوابطی را برای هوش مصنوعی تنظیم کند تا به وسیله آن مسیر توسعه و استفاده اخلاقی از این تکنولوژی هموارتر شود. این ضوابط، ضمن ممانعت از ایجاد تبعیض از سوی ما، به ما کمک می‌کند که آزمایش‌های لازم برای امنیت بیشتر را سخت‌گیرانه انجام دهیم. همچنین با کمک این ضوابط می‌توانیم هنگام طراحی، حفظ حریم شخصی افراد را در اولویت قرار داده و کاری کنیم که این تکنولوژی در برابر مردم پاسخگو باشد. ناگفته نماند، در این ضوابط خط قرمزهایی برای ما ترسیم شده که مجموعه را از طراحی و اجرای هوش مصنوعی در برخی حوزه‌ها بر حذر می‌دارد؛ مثل پشتیبانی از نظارت گسترده بر مردم یا نقض حقوق بشر.

البته اگر این ضوابط تنها روی کاغذ بوده و در حد شعار باقی بماند، بی‌معنی خواهد بود. لذا ابزارهایی را تدارک دیدیم تا به وسیله آنها، این ضوابط را عملی کنیم، از جمله: آزمودن تصمیمات هوش مصنوعی برای رعایت انصاف و عدالت و همچنین اجرای ارزشیابی‌های مستقل حقوق بشری برای محصولات جدید. ما حتی یک قدم فراتر رفته و این ابزارها و کد منبع-باز مربوط به آنها را در دسترس عموم قرار دادیم که این کار امکان استفاده به‌هنجار از هوش مصنوعی را برای دیگران فراهم می‌کند. ما معتقدیم هر شرکتی که به توسعه ابزارهای جدید هوش مصنوعی مبادرت می‌ورزد، باید خط مشی مشخصی را برای خود تنظیم کرده و پروسه‌های بازبینی سرسختانه‌ای را اعمال کند.

نظارت‌های دولتی نیز می‌تواند نقش مهمی در این زمینه ایفا کند. لازم نیست همه چیز را از صفر شروع کنیم. قوانین کنونی – مثل قانون محافظت از داده‌های عمومیِ اروپا یا به‌طور خلاصه GDPR– می‌توانند به عنوان یک مبنا و پایه در نظر گرفته شوند. چارچوب‌های نظارتی مناسب، با در نظر گرفتن مواردی چون امنیت، توضیح‌پذیر بودن، انصاف و مسئولیت‌پذیری، می‌توانند اطمینان حاصل کنند که کمپانی‌ها ابزارهای مناسبی را به روش‌های درست توسعه می‌دهند. اقدامات نظارتی معقول، باید با در پیش گرفتن رویکردی مقتضی، ضررهای احتمالی را (به ویژه در حوزه‌های پرخطر) با فرصت‌های اجتماعی خنثی کنند.

اقدامات نظارتی، ضمن فراهم نمودن امکان اجرای مناسب در بخش‌های مختلف، رهنمودهای گسترده و جامعی را ارائه می‌کنند. برای برخی کاربردهای هوش مصنوعی – مثل تجهیزات پزشکی از قبیل مانیتورهای قلب مجهز به هوش مصنوعی – چارچوب‌های نظارتی موجود می‌تواند نقطه شروع مناسبی باشد. اما برای حوزه‌های جدیدتر – مثل اتومبیل‌های خودران – دولت‌ها باید قوانین جدیدی را وضع کنند که بتواند هزینه‌ها و مزایا را در نظر بگیرد.

قدم اول گوگل، به رسمیت شناختن نیاز به یک رویکرد اصولی و نظارتی برای استفاده از هوش مصنوعی است، اما به همین جا ختم نمی‌شود. ما می‌خواهیم زمانی که قانون‌گذاران با تنش‌ها و بده‌بستان‌های موجود در این راه دست و پنجه نرم می‌کنند، به عنوان یک شریک با این مسأله درگیر شده و با ارائه تخصص، تجربه و ابزارهای خود، در حل این مشکلات به آنها کمک کنیم.

فناوری هوش مصنوعی این ظرفیت را دارد که میلیاردها زندگی را بهبود ببخشد و شاید بزرگ‌ترین خطر در این زمینه آن باشد که از عهده چنین کاری بر نیاید. اما اگر مطمئن شویم که این فناوری، مسئولانه و به شکلی که به نفع همگان باشد توسعه می‌یابد، می‌توانیم الهام‌بخش نسل‌های آینده بوده و آنها را متقاعد کنیم که به قدرت تکنولوژی ایمان بیاورند، به همان اندازه که من ایمان دارم.

همان‌طور که ملاحظه نمودید، سوندار پیچای ضمن تأکید بر لزوم وجود نظارت‌های جدید، بر این باور است که در این زمینه باید رویکردی محتاطانه اتخاذ شود که کنترل‌های فراوانی را بر روند به‌کارگیری هوش مصنوعی اعمال نکند. لذا، علی‌رغم نیاز به قوانین جدید برای برخی محصولات مثل اتومبیل‌های خودران، به اعتقاد پیچای می‌توان در حوزه‌هایی مثل پزشکی و بهداشت و درمان، همان قوانین موجود را تعمیم داد تا محصولات مجهز به هوش مصنوعی را نیز در بر بگیرد.

در حال حاضر، به نظر می‌رسد برنامه‌های ایالات متحده برای نظارت بر هوش مصنوعی، با برنامه‌های اتحادیه اروپا همسو نباشد. کاخ سفید به دنبال قوانین سبکی است تا با اجتناب از زیاده‌روی، به ترویج نوآوری در این فناوری بپردازد. به عنوان نمونه، چندی پیش، مایکل کراتسیوس (Michael Kratsios)، مدیر ارشد فناوری کاخ سفید، در مقاله‌ای‌ در بلومبرگ، نسبت به هر گونه قوانین پیشگیرانه، سنگین یا تکراری که مانع نوآوری و رشد هوش مصنوعی می‌شود، هشدار داده بود. در حالی که اتحادیه اروپا در پی اعمال قوانین سخت‌گیرانه‌تری‌ست، مثل وضع ممنوعیت پنج ساله تشخیص چهره. در رابطه با قوانین مربوط به حفاظت داده‌ها، هر گونه تعارض بین آمریکا و اتحادیه اروپا، برای شرکت‌های بین‌المللی مثل گوگل، هزینه‌های اضافی و چالش‌های فنی را به بار خواهد آورد.

پیچای در این سرمقاله، هیچ قانونی را به طور مشخص نام نمی‌برد، اما در کنفرانسی که همان روز در بروکسل برگزار شد، اعلام کرد که با قانون ممنوعیت تشخیص چهره (پیشنهاد شده توسط اتحادیه اروپا) موافق است. این موضع با رویکرد کنونی گوگل نیز همخوانی دارد. گوگل از بیم آنکه مبادا فناوری تشخیص چهره برای نظارت گسترده بر مردم مورد استفاده قرار بگیرد، از فروش این فناوری خودداری می‌کند. در حالی که رقبایی مثل مایکروسافت و آمازون، همچنان به فروش این تکنولوژی ادامه می‌دهند.

اما از لحن گوگل این طور برداشت می‌شود که ظاهرا موضع این شرکت در رابطه با قانونمند شدن هوش مصنوعی با سیاست‌های دولت آمریکا همسو و هماهنگ است. گوگل ظاهرا پیش از این برای تجهیز برخی سلاح‌ها به هوش مصنوعی با ارتش آمریکا قرارداد داشته است. لذا تعجبی ندارد که این شرکت به دنبال لابی‌گری با قانون‌گذاران باشد تا محدودیت‌های اعمال شده بر هوش مصنوعی، تا جای ممکن ضعیف و انتزاعی باشند.

منبع : Financial Times