آیا هوش مصنوعی واقعا تهدیدی برای آینده بشر است؟
هوش مصنوعی از لنز تردید و امید

رسانه استرالیایی «The Conversation»، طی روزهای اخیر درباره نگرانی این روزهای جهان، یعنی پیامدهای پیشرفت هوش مصنوعی و سیطره هوش مصنوعی بر انسان با ۵ نفر از متخصصان این حوزه مصاحبه کرده است. در عصر حاضر که محصولات هوش مصنوعی، به ویژه مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی، کوپایلوت، جمینای فراگیر شده‌اند، انبوهی از اظهارات کارشناسی درباره آینده این فناوری مطرح می‌شود. برخی می‌گویند هوش مصنوعی جهان را دگرگون خواهد کرد. برخی دیگر از پیروزی‌های شگفت‌انگیز آن سخن می‌گویند. در مقابل، عده‌ای معتقدند درباره توانایی هوش مصنوعی بیش‌ازحد بزرگ‌نمایی شده و حباب آن در آستانه‌ ترکیدن است. گروهی نیز هشدار می‌دهند که هوش مصنوعی ممکن است به‌زودی از توانایی‌های انسانی فراتر رود و سرانجام بشریت را نابود کند . 
به گزارش رسانه زاویه، گزاره آخر شالوده رمان‌های علمی تخیلی نیست بلکه باور راسخ جفری هینتون، «پدرخوانده‌ هوش مصنوعی» دانشمند علوم رایانه و برنده‌ نوبل فیزیک محسوب می‌شود. او گفته است که بین ۱۰ تا ۲۰ درصد احتمال وجود دارد که هوش مصنوعی در سه دهه‌ آینده به انقراض بشر منجر شود؛ اما در مورد این‌که آیا چنین اتفاقی ممکن است رخ دهد و اگر بله چگونه، هیچ اجماعی وجود ندارد. در ادامه نظرات
 ۵ کارشناس هوش مصنوعی درباره آینده هوش مصنوعی و تهدیدات ناشی از آن به‌تفصیل می‌آید.

خطر واقعی این نیست که هوش مصنوعی بیش‌ازحد باهوش شود
آرون جی. اسنوزول
پژوهشگر ارشد در حوزه‌ مسئولیت‌پذیری 
هوش مصنوعی، دانشگاه فناوری کوئینزلند
با وضعیت کنونی فناوری، خطر واقعی این نیست که هوش مصنوعی بیش‌ازحد باهوش شود؛ بلکه این است که انسان‌ها تصمیمات نادرستی درباره‌ نحوه ساخت و به‌کارگیری این ابزارها بگیرند. سامانه‌های کنونی هوش مصنوعی، هرچند چشمگیر هستند، اما 
در اساس همچنان چیزی جز «طوطی‌های تصادفی»[۱] نیستند. آن‌ها درگیر الگو‌یابی پیچیده‌ای می‌شوند که هوش را از طریق پیش‌بینی شبیه‌سازی می‌کند. شواهد فزاینده نشان می‌دهد که این بنیان به شکل شگفت‌آوری شکننده، غیرقابل‌اعتماد و ناسازگار با تفکر استدلالی است؛ چه رسد به آن‌که هوش واقعی محسوب شود.پیشرفت‌های کنونی در هوش مصنوعی مولد چشمگیر و حتی تحول‌آفرین هستند.
 بااین‌حال، این دستاوردها تدریجی و ناپایدارند و رویکرد توسعه‌ هوش مصنوعی در این حوزه ذاتامحدود است. البته پارادایم‌های فناورانه‌ آینده می‌توانند این ارزیابی را دگرگون کنند و پیش‌بینی چنین پیشرفت‌هایی دشوار است اما درنهایت همه‌ خطرات هوش مصنوعی از انتخاب‌های انسانی سرچشمه می‌گیرند. مسیر دستیابی به جوامعی شکوفا از رهگذر رهبران، نهادها و نظام‌های حکمرانی بهتر می‌گذرد.به‌جای گمانه‌زنی درباره‌ یک اَبَرهوش فرضی که ممکن است بشر را نابود کند، باید تمرکز خود را بر چارچوب‌های نظارت و توسعه‌ مسئولانه بگذاریم. خطرات وجودی در دل کُدها پنهان نیستند؛ اگر وجود داشته باشند، در تصمیم‌های ما نهفته هستند.

مدل‌های پیشرفته هوش مصنوعی به‌سرعت در حال کسب توانایی‌های همه‌جانبه هستند
نیوشا شفیع‌آبادی
دانشیار هوش محاسباتی، دانشگاه کاتولیک استرالیا
من به‌شدت باور دارم که هوش مصنوعی تهدیدی وجودی ایجاد می‌کند. سامانه‌های کنونی تا به امروز تنها آن چیزی را داشته‌اند که به‌عنوان هوش مصنوعی ضعیف یا محدود شناخته می‌شود؛ ظرفیت‌هایی محدود برای انجام وظایف خاص، نه هوشی در سطح انسان که به آن هوش مصنوعی جامع گفته می‌شود. با این حال، مدل‌های پیشرو به‌سرعت 
در حال دستیابی به توانایی‌های همه‌منظوره هستند که احتمال سوءاستفاده در مقیاس گسترده را افزایش می‌دهد. هرچه هوش مصنوعی توانمندتر شود، به همان میزان می‌تواند کنترل انسانی بر خود را تضعیف کند.صدها کارشناس برجسته، شخصیت عمومی و پژوهشگر هشدار داده‌اند که «کاهش خطر انقراض ناشی از هوش مصنوعی» باید یک اولویت جهانی باشد. نظرسنجی‌ها از پژوهشگران حوزه یادگیری ماشین، احتمال متوسط پیامدهای هم‌سطح با انقراض در این قرن را حدود ۵ درصد برآورد کرده‌اند. این درصد کوچک است، اما به هیچ‌وجه قابل چشم‌پوشی نیست.دولت‌هایی که در سال ۲۰۲۳ «بیانیه بِلِچلی پارک» را امضا کردند، به وجود خطرات فاجعه‌بار اذعان داشته‌اند. آزمایشگاه‌های پژوهشی هوش مصنوعی در حال حاضر دسته‌های مشخصی از مخاطرات مانند سوءاستفاده از هوش مصنوعی برای حملات زیستی و سایبری در مقیاس گسترده را پایش می‌کنند.
وقوع فاجعه‌ وجودی ناشی از هوش مصنوعی امری اجتناب‌ناپذیر نیست، اما خرد حکم می‌کند که ما باید همراه با آزمون‌های دقیق پیش از استقرار و ارزیابی‌های مستقل هم‌زمان با مقیاس‌پذیری توانمندی‌ها، خطوط قرمزی قابل‌اجرا تعریف کنیم که هوش مصنوعی از آن‌ها فراتر نرود. ما باید همین حالا اقدام کنیم، پیش از آن‌که خیلی دیر شود.

هوش مصنوعی فقط به‌اندازه‌ انسان‌هایی که آن را به کار می‌گیرند خوب عمل می‌کند
سارا ویوین بنتلی
پژوهشگر علوم، نوآوری مسئولانه، سازمان
 پژوهش‌های علمی و صنعتی استرالیا (CSIRO)
فراتر از چت‌بات‌های هوش مصنوعی مولد که اکنون برای همه آشنا هستند، آینده‌ گسترده‌تر هوش مصنوعی همچنان ناشناخته باقی‌مانده است. همانند دیگر فناوری‌های انقلابی مانند انرژی هسته‌ای یا دستگاه چاپ، هوش مصنوعی نیز زندگی ما را دگرگون خواهد کرد. درواقع، این فناوری همین حالا هم‌چنین کرده است.
 بازار کار امروز با گذشته قابل مقایسه نیست، شیوه‌های آموزشی ناآشنا شده‌اند و تصمیم‌گیری چه در حوزه‌ سلامت و چه در عرصه‌ نظامی اغلب با مشارکت ماشین‌ها صورت می‌گیرد. از این منظر، شاید بتوان گفت هوش مصنوعی واقعا یک تهدید وجودی محسوب می‌شود.
اما مشکل دقیقا همین‌جاست. ما درباره‌ هوش مصنوعی طوری صحبت می‌کنیم که گویی از فضای بیرونی به زندگی ما پرتاب‌شده است و توانایی این سامانه‌ها برای عمل خودکار، چنین روایتی را تقویت می‌کند؛ اما هوش مصنوعی در فضا ساخته نشده است. کُدهای این سامانه‌ها توسط انسان‌ها نوشته‌شده، توسعه‌ آن‌ها با سرمایه‌ انسانی تأمین‌شده و تنظیم‌گری‌شان نیز به دست انسان‌ها انجام می‌گیرد؛ بنابراین اگر تهدیدی وجود داشته باشد، به نظر می‌رسد انسانی باشد، نه ماشینی.
هوش مصنوعی ابزاری خارق‌العاده است که بی‌تردید می‌تواند به نژاد بشر کمک کند؛ اما مانند هر ابزار دیگری، تنها به‌اندازه‌ انسان‌هایی ارزشمند است که آن را به کار می‌گیرند. در آستانه‌ انقلاب هوش مصنوعی، شاید زمان آن رسیده باشد که تفکر انتقادی را تقویت کنیم و درماندگی آموخته‌شده را کاهش دهیم.

واضح‌ترین مسیرِ رسیدن به یک تهدید وجودی، نظامی شدن هوش مصنوعی است
سیدعلی میرجلیلی
استاد هوش مصنوعی، دانشگاه تورنز استرالیا
من بیشتر نگران این هستم که انسان‌ها از هوش مصنوعی برای نابودی تمدن استفاده کنند تا این‌که خودِ هوش مصنوعی به‌صورت خودمختار و با تسلط کامل این کار را انجام دهد. واضح‌ترین مسیر منتهی به یک تهدید وجودی، نظامی شدن و گسترش نظارت فراگیر با استقاده از این فناوری است. این خطر در صورتی افزایش می‌یابد که نتوانیم نوآوری را با مقررات متعادل کنیم و چارچوب‌های بازدارنده کافی و بین‌المللی برای دور نگه‌داشتن این سامانه‌ها از دسترس بازیگران بد ایجاد نکنیم.
یکپارچه‌سازی هوش مصنوعی در سلاح‌های آینده کنترل انسانی را کاهش می‌دهد و به یک مسابقه تسلیحاتی منجر خواهد شد. در صورت مدیریت نادرست،
 پیوند زدن هوش مصنوعی با امنیت ملی حتی می‌تواند خطر وقوع یک جنگ جهانی هدایت‌شده توسط هوش مصنوعی را نیز به همراه داشته باشد.
یکی از راه‌های کاهش ریسک وجودی ناشی از هوش مصنوعی این است که سامانه‌های مبتنی بر این فناوری بر اساس سطح ریسک دسته‌بندی شوند و محدودیت‌هایی برای نحوه‌ استفاده از آن‌ها به‌ویژه با الزام نظارت انسانی در زمینه‌های پرخطر در حوزه‌ دفاعی اعمال گردد.
در کنار حکمرانی، باید اطمینان حاصل کنیم که سامانه‌های هوش مصنوعی واقعیت‌های جهان را بدون سوگیری، تحریف داده‌ها یا خدمت به دستور کار خاصی بازنمایی کنند؛ اما این اقدامات نیز به‌تنهایی کافی نیست. ایمنی همچنین وابسته به همسوسازی اهداف هوش مصنوعی با ارزش‌های انسانی، حفظ کنترل انسان بر این سامانه‌ها و آزمایش سختگیرانه در هر مرحله است. به‌این‌ترتیب، می‌توانیم به صورت مسالمت‌آمیز با سامانه‌های هوش مصنوعی همزیستی کنیم.

«هوشِ» هوش مصنوعی مولد به صورت جدی محدود است
سایمون کاگلَن
استادیار ارشد اخلاق دیجیتال؛ معاون مدیر، مرکز اخلاق هوش مصنوعی و دیجیتال، دانشگاه ملبورن
شواهد اندکی وجود دارد که نشان دهد هوش مصنوعی اَبَرانسانی با توانایی نابودی جهان به این زودی‌ها در راه است. نگرانی‌ها و هیاهوها درباره‌ خطرات وجودی برای بشر عمدتااز پیشرفت‌های اخیر در هوش مصنوعی مولد، به‌ویژه مدل‌های زبانی بزرگ مانند  چت‌جی‌پی‌تی، کلاد، جمینای و… سرچشمه می‌گیرد. این مدل‌های هوش مصنوعی پیش‌بینی‌هایی مبتنی بر الگو انجام می‌دهند؛ یعنی حدس می‌زنند چه متنی احتمالانیاز یک کاربر خاص را بر اساس فرمان واردشده، برآورده خواهد کرد.
بسیاری از کارشناسان بر این باورند که «هوش» این نوع از هوش مصنوعی، هرچند به‌نوعی چشمگیر به نظر می‌رسد، اما به‌طورجدی محدود است. برای نمونه، مدل‌های زبانی بزرگ فاقد توانایی قابل‌اعتماد در درک منطقی، واقعی و مفهومی هستند. به همین دلیل، در این جنبه‌های حیاتی، هوش مصنوعی نمی‌تواند مانند انسان‌ها بفهمد و بنابراین نمی‌تواند مانند آن‌ها عمل کند.
این احتمال وجود دارد در آینده هوش مصنوعی بتواند بر محدودیت‌ها غلبه کند؛ اما چنین چیزی را هم نمی‌توان قطعی فرض کرد. بزرگ‌نمایی تهدیدهای فرضیِ هوش مصنوعی اَبَرانسانی خطر آن را دارد که ما را از آسیب‌های واقعی امروزِ هوش مصنوعی مانند تصمیم‌گیری خودکار همراه با سوگیری، تحولات شغلی و نقض حقوق مالکیت معنوی منحرف کند.
 این رویکرد همچنین می‌تواند توجه ما را از تهدیدهای وجودی واقعی مانند تغییرات اقلیمی منحرف کند خطری که خودِ هوش مصنوعی با مصرف بالای انرژی ممکن است به آن دامن بزند.