چرا باید هوش مصنوعی را کنترل کرد؟

به گزارش وبلاگ مویک، استوارت راسل، دانشمند علوم رایانه در بریتانیا که به دلیل تلاش هایش در زمینه هوش مصنوعی شناخته شده است. کتاب او تحت عنوان رویکردی نوین به هوش مصنوعی از طریق عباس باقری یزدی به فارسی ترجمه و از طریق انتشارات دیباگران تهران چاپ شده است. این کتاب در بسیاری از دانشگاه های معتبر جهان تدریس می شود و از آن تحت عنوان محبوب ترین کتاب درسی در زمینه هوش مصنوعی یاد شده است. راسل در سال 1995 برنده جایزه IJCAI Computers and Thought در کنفرانس های مشترک بین المللی در زمینه هوش مصنوعی و جایزه بین المللی برتر هوش مصنوعی برای محققان در رده سنی کم تر از 35 سال شده بود. در سال 2022 میلادی او جایزه IJCAI برای تعالی پژوهشی را دریافت کرد. در سال 2012 میلادی کرسی بلز پاسکال در پاریس به او اعطا شد که به دانشمندان خارجی تحسین شده بین المللی در تمامی رشته ها اعطا می شود. راسل به عنوان نایب رئیس شورای هوش مصنوعی و رباتیک مجمع جهانی اقتصاد فعالیت کرده بود و در حال حاضر عضو شورای جهانی هوش مصنوعی آن مجمع است.

چرا باید هوش مصنوعی را کنترل کرد؟

به گزارش وبلاگ مویک به نقل از گاردین، اگر جای دیگری در منظومه شمسی بوده اید در اینجا یک به روز رسانی مختصر اخبار هوش مصنوعی آورده شده است. اگر شبیه پاراگراف آغازین یک رمان علمی - تخیلی بد به نظر می رسد عذرخواهی می کنم. در تاریخ 14 مارس 2023 میلادی Open AI یک شرکت مستقر در سانفرانسیسکو که مایکروسافت سرمایه گذاری عمده ای در آن دارد یک سیستم هوش مصنوعی به نام جی پی تی -4 (GPT-4) را منتشر کرد. در تاریخ 22 مارس در گزارشی تهیه شده از طریق گروه برجسته ای از محققان مایکروسافت از جمله دو عضو آکادمی های ملی ایالات متحده ادعا شد که جی پی تی -4 جرقه های هوش مصنوعی عمومی را نشان می دهد. (هوش عمومی مصنوعی یا AGI یک کلمه کلیدی برای سیستم های هوش مصنوعی است که در طیف کاملی از وظایفی که فکر انسان برای آن قابل اجرا است مطابقت دارد یا از آن فراتر می رود).

در تاریخ 29 مارس انستیتو آینده زندگی یک موسسه غیرانتفاعی به ریاست مکس تگمارک پروفسور موسسه فناوری ماساچوست (ام آی تی) نامه ای سرگشاده منتشر کرد که در آن خواستار توقف آزمایش های غول پیکر هوش مصنوعی شده بود. این سند از طریق چهره های شناخته شده ای مانند ایلان ماسک مدیر عامل تسلا، استیو وزنیاک بنیانگذار اپل و یوشوا بنجیو برنده جایزه تورینگ و همچنین صد ها محقق برجسته هوش مصنوعی امضا شده است. طوفان رسانه ای متعاقب آن کماکان ادامه دارد. من نیز از امضاکنندگان آن نامه بودم به این امید که دست کم منجر به گفتگوی جدی و متمرکز میان سیاستگذاران، شرکت های فناوری و جامعه تحقیقاتی هوش مصنوعی شود گفتگو در مورد اینکه چه نوع حفاظتی پیش از حرکت به جلو مورد نیاز است. زمان سخن گفتن از این که هوش مصنوعی صرفا یک تحقیق ناب می باشد مدت ها گذشته است.

پس سر و صدا برای چیست؟ جی پی تی -4 آخرین نمونه از مدل های زبان بزرگ یا LLM است. یک LLM را به عنوان یک مدار بسیار بزرگ با تریلیون پارامتر قابل تنظیم در نظر بگیرید. این به عنوان یک لوح خالی آغاز شده و با ده ها تریلیون کلمه متن آموزش داده می شود به اندازه تمام کتاب هایی که بشریت تولید کرده است. هدف این مدل های زبان بزرگ آن است که در پیش بینی کلمه بعدی در دنباله ای از کلمات خوب عمل کند و پس از حدود یک میلیارد تریلیون اختلالات تصادفی پارامتر ها بسیار خوب عمل خواهد کرد.

قابلیت های سیستم حاصل قابل توجه است. طبق گفته وب سایت Open AI جی پی تی -4 در طیف وسیعی از آزمون های ورودی دانشگاه و تحصیلات تکمیلی برتر انسان ها امتیاز می گیرد. هم چنین، جی پی تی -4 طبق گفته سازنده آن می تواند قضیه فیثاغورث را در قالب غزل شکسپیر توصیف کرده و پیش نویس سخنرانی وزیر کابینه را از دیدگاه یک کننده مجلس از هر حزب سیاسی نقد کند.

هر روز توانایی های شگفت انگیز جدیدی کشف می شوند. جای تعجب نیست که هزاران شرکت بزرگ و کوچک در پی راه هایی برای کسب درآمد از این عرضه نامحدود اطلاعات تقریبا رایگان هستند. مدل های زبان بزرگ می توانند بسکمک از وظایفی را انجام دهند که مشاغل صد ها میلیون نفر را در بر می گیرد به خصوص هر فردی که سر و کارش با زبان است. در حالتی خوش بینانه تر ابزار های ساخته شده مبتنی بر مدل های زبان بزرگ قادر به ارائه آموزش بسیار شخصی در سراسر جهان خواهند بود. با این وجود، متاسفانه مدل های زبان بزرگ به دلیل دچار شدن به توهم پاسخ های کاملا نادرست نیز ارائه می دهند که اغلب از سوی نقل قول های ساختگی پشتیبانی می شوند، زیرا آموزش آن هیچ ارتباطی با جهانی خارج ندارد.

مدل های زبان بزرگ ابزار مناسبی برای اطلاع رسانی نادرست هستند و برخی از آن ها به خودکشی در میان انسان ها دامن زده و حتی آن را تشویق می کرده اند. Open AI خود توصیه کرده که از استفاده های پرمخاطب از این فناوری به طور کلی اجتناب ورزید. با این وجود، به نظر می رسد هیچ کس به آن توصیه توجهی نکرده است. آزمایش های Open AI نشان داد که جی پی تی -4 می تواند عمدا به یک مخاطب انسانی دروغ بگوید (با این مضمون که نه، من یک ربات نیستم. من یک اختلال بینایی دارم که دیدن تصاویر را برایم سخت می سازد) تا به ظاهر برای حل مشکل کمک کند.

در حالی که Open AI تلاش های شدیدی انجام داده تا جی پی تی -4 به درخواست های حساس (برای مثال توصیه های پزشکی و آسیب رساندن افراد به خود) پاسخ دهد مشکل اصلی این است که نه Open AI و نه هیچ کس دیگری ایده ای واقعی درباره نحوه عملکرد جی پی تی -4 ندارند.

من از متخصصی پرسیدم که آیا جی پی تی -4 اهداف داخلی خود را توسعه داده و آن را در انتخاب خروجی های خود به کار می گیرد؟ او در پاسخ گفت: من هیچ ایده ای در این باره ندارم.

در حال حاضر دلایلی فنی وجود دارد که فرض کنیم جی پی تی -4 در توانایی خود برای شکل دهی و اجرای طرح های پیچیده محدود است، اما با توجه به سرعت پیشرفت سخت است که بگوییم نسخه های آینده آن چنین توانایی ای را نخواهند داشت و همین موضوع منجر به یکی از نگرانی های اصلی نهفته در نامه سرگشاده می شود: چگونه می توانیم قدرت را بر موجودات قدرتمندتر از خودمان برای همیشه حفظ کنیم؟

ایده اصلی توقف پیشنهادی نامه سرگشاده این است که هیچ سیستمی نباید منتشر شود تا زمانی که توسعه دهنده به طور قانع کننده نشان دهد که خطر بی دلیل ندارد. این دقیقا مطابق با اصول هوش مصنوعی سازمان همکاری و توسعه مالی است که بریتانیا، ایالات متحده و بسکمک از دولت های دیگر آن را امضا کرده اند: سیستم های هوش مصنوعی باید در تمام چرخه عمر خود قوی و ایمن باشند تا در شرایط استفاده عادی، استفاده قابل پیش بینی یا سوء استفاده یا سایر شرایط نامطلوب عملکرد مناسبی داشته و خطر ایمنی غیر منطقی را ایجاد نکنند.

این وظیفه توسعه دهنده است که نشان دهد سیستم هایش این معیار ها را برآورده می سازند. من فکر نمی کنم فردا ساتیا نادلا مدیرعامل مایکروسافت با من تماس بگیرد و بگوید: موافق هستم ما تسلیم شده و متوقف می شویم!

در سخنرانی های تازه در برکلی این ایده مطرح شد که هیچ امکانی وجود ندارد که تمام شرکت های بزرگ فناوری متوقف شوند مگر آن که دولت ها مداخله کنند؛ بنابراین ضروری است که دولت ها بحث های جدی را با کارشناسان شرکت های فناوری و با یکدیگر آغاز کنند. به نفع هیچ کشوری نیست که سیستم های هوش مصنوعی را توسعه دهد و منتشر کند اگر قادر به کنترل آن نباشد. اصرار بر اقدامات احتیاطی معقول به معنای ضدیت با صنعت نیست.

چرنوبیل زندگی بسکمک از انسان ها را نابود کرد، اما تلفات و هزینه های زیادی بر صنعت هسته ای جهانی نیز تحمیل کرد. من یک محقق هوش مصنوعی هستم. من نمی خواهم حوزه تحقیقاتی ام از بین برود. بشریت چیز های زیادی برای به دست آوردن از هوش مصنوعی دارد. همزمان بشریت چیز های زیادی برای از دست دادن در برابر هوش مصنوعی و باخت در مقابل آن را نیز دارد.

منبع: فرارو

به "چرا باید هوش مصنوعی را کنترل کرد؟" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "چرا باید هوش مصنوعی را کنترل کرد؟"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید