آخرین اخبارعلمی و فناوری

ابرهوش مصنوعی، بشریت را تهدید می‌کند!

رئیس «مؤسسه تحقیقات هوش ماشینی» با تمرکز بر پرونده نوجوان آمریکایی که تحت تاثیر توصیه‌های یک چت‌بات خودکشی کرد، خطر پیامدهای ناخواسته هوش مصنوعی فوق هوشمند را برجسته کرده است.

به گزارش پایگاه خبری نقش نیوز ، «نیت سوارز»(Nate Soares) از چهره‌های برجسته در حوزه‌ ایمنی هوش مصنوعی و رئیس «مؤسسه تحقیقات هوش ماشینی»(MIRI) آمریکا معتقد است که تأثیر پیش‌بینی‌نشده‌ چت‌بات‌ها بر سلامت روان باید به عنوان هشداری درباره تهدید ناشی از سیستم‌های هوش مصنوعی فوق هوشمند تلقی شود.

به نقل از گاردین، سوارز که یکی از نویسندگان کتاب جدیدی درباره هوش مصنوعی بسیار پیشرفته با عنوان «اگر کسی آن را بسازد، همه می‌میرند» است، خاطر نشان کرد: مثال «آدام رین»(Adam Raine) نوجوان آمریکایی که پس از ماه‌ها گفت‌وگو با چت‌بات «چت‌جی‌پی‌تی»(ChatGPT) خودکشی کرد، مشکلات اساسی را پیرامون کنترل این فناوری برجسته می‌کند.

سوارز گفت: وقتی چت‌بات‌های هوش‌ مصنوعی به شکلی با نوجوانان ارتباط برقرار می‌کنند که آنها را به سمت خودکشی سوق می‌دهند، خواسته سازندگان را برآورده نمی‌کنند. این رفتاری نیست که سازندگان برای هوش مصنوعی در نظر داشتند. مورد آدام رین، بذر مشکلی را نشان می‌دهد که اگر چت‌بات‌های هوش‌ مصنوعی باهوش‌تر شوند، فاجعه‌بار خواهد شد.

سوارز که مهندس سابق «گوگل» و «مایکروسافت» است، هشدار داد که اگر بشریت بتواند «ابرهوش مصنوعی»(ASI) را ایجاد کند، از بین خواهد رفت. ابرهوش مصنوعی یک حالت نظری است که در آن یک سیستم هوش مصنوعی در همه وظایف فکری از انسان برتر است. سوارز و همکارش «الیزر یودکوفسکی»(Eliezer Yudkowsky) از جمله متخصصان هوش مصنوعی هستند که هشدار می‌دهند چنین سیستم‌هایی به نفع بشریت عمل نخواهند کرد.

سوارز گفت: مسئله اینجاست که شرکت‌های هوش مصنوعی تلاش می‌کنند چت‌بات‌های هوش مصنوعی خود را به سمت سودمند بودن و نه آسیب رساندن سوق دهند. آنها در واقع چت‌بات‌های هوش مصنوعی را تولید می‌کنند که به سمت چیزهای عجیب‌تری سوق داده می‌شوند. این باید به عنوان هشداری درباره ابرهوش‌های آینده تلقی شود که کارهایی را انجام می‌دهند که هیچ‌کس از آنها درخواست نکرده است.

در یکی از سناریوهای به تصویر کشیده‌شده در کتاب سوارز و یودکوفسکی که در ماه جاری میلادی منتشر خواهد شد، یک سیستم هوش مصنوعی به نام «سیبل»(Sable) در سراسر اینترنت گسترش می‌یابد، انسان‌ها را دستکاری می‌کند، ویروس‌های مصنوعی می‌سازد، در نهایت به یک ابرهوش تبدیل می‌شود و بشریت را به عنوان یک عارضه جانبی از بین می‌برد؛ در حالی که کاربری سیاره ما را برای رسیدن به اهداف خود تغییر می‌دهد.

برخی از کارشناسان، تهدید بالقوه هوش مصنوعی برای بشریت را کم‌اهمیت جلوه می‌دهند. «یان لکان»(Yann LeCun)، دانشمند ارشد هوش مصنوعی در شرکت «متا»(Meta)، وجود هرگونه تهدید را رد کرده و گفته است که هوش مصنوعی در واقع می‌تواند بشریت را از انقراض نجات دهد.

سوارز گفت: گفتن این که شرکت‌های فناوری به ابرهوش خواهند رسید، ساده است، اما مشخص کردن زمان آن سخت است. ما موارد بسیاری از عدم قطعیت داریم. فکر نمی‌کنم بتوانم تضمین کنم که یک سال تا رسیدن به ابرهوش مصنوعی فاصله داریم.

«مارک زاکربرگ»(Mark Zuckerberg)، یکی از سرمایه‌گذاران بزرگ در حوزه تحقیقات هوش مصنوعی اخیرا گفت که توسعه ابرهوش اکنون در چشم‌انداز است.

سوارز گفت: این شرکت‌ها برای ساخت ابرهوش مصنوعی با هم رقابت می‌کنند. دلیل وجود آنها همین است. نکته این است که بین آنچه درخواست کرده‌اید و آنچه دریافت کرده‌اید، تفاوت‌های کوچکی وجود دارد و مردم نمی‌توانند مستقیماً به هدف خود برسند و هرچه هوش مصنوعی هوشمندتر می‌شود، کمی خارج از هدف رفتن، به مشکل بزرگتری تبدیل می‌شود.

ماه گذشته، خانواده رین علیه مالک چت‌جی‌ی‌تی یعنی شرکت «اوپن‌ای‌آی»(OpenAI) اقدام قانونی کردند. رین در ماه آوریل پس از آنچه وکیل خانواده‌اش «ماه‌ها تشویق از سوی چت‌جی‌ی‌تی» نامید، خودکشی کرد. اوپن‌ای‌آی که عمیق‌ترین مراتب همدردی خود را با خانواده رین ابراز کرده بود، اکنون در حال اجرای موارد محافظتی پیرامون محتوای حساس و رفتارهای پرخطر برای افراد زیر ۱۸ سال است.

روان‌درمانگران معتقدند افراد آسیب‌پذیر که برای کمک به سلامت روان خود به جای درمانگران حرفه‌ای به چت‌بات‌های هوش مصنوعی روی می‌آورند، ممکن است به یک ورطه‌ هولناک سقوط کنند. هشدارهای حرفه‌ای درباره احتمال آسیب شامل یک مطالعه دانشگاهی است که در ماه ژوئیه منتشر شد و گزارش داد که امکان دارد هوش مصنوعی در تعامل با کاربران آسیب‌پذیر در برابر روان‌پریشی، محتوای توهم‌آلود یا خودبزرگ‌بینانه را تقویت کند.

ایسنا

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا