جهان در معرض نابودی با سلاحی تازه!

ما می‌دانیم که فناوری هسته‌ای می‌تواند انرژی ارزانی برای رفاه انسان‌ها تولید کند اما ممکن است باعث نابودی فیزیکی تمدن بشری هم شود. به همین دلیل، تدابیر بین‌المللی کلی ای را ترسیم و تدوین کرده‌ایم تا از موجودیت بشر حفاظت کنیم و مطمئن شویم که فناوری هسته‌ای اساساً برای مقاصد خوب استفاده می‌شود. اکنون با یک سلاح به اصطلاح کشتار جمعی یا ویرانی انبوه تازه سروکار داریم که می‌تواند جهان ذهنی و اجتماعی ما را نابود کند.

به گزارش تحریریه، هراس از هوش مصنوعی (AI) از آغاز عصر رایانه، بر انسان سایه افکنده است. تاکنون این هراس بیشتر بر ماشین‌هایی تمرکز داشت که می توانستند با بکارگیری ابزارهای فیزیکی، افراد را بکشند، بر آنها سلطه یابند یا جایگزین (شغلی و...) آنها باشند. اما در این چند سال، ابزارهای جدید هوش مصنوعی یا همان AI ظهور کرده اند که به شکلی غیرمنتظره، سرچشمه تهدید برای بقای تمدن بشری هستند. هسته این تهدید اینجاست که هوش مصنوعی، توانایی‌های قابل توجهی برای تولید زبان بشری و دستکاری آن با بکارگیری واژه ها، آواها و تصاویر دارد. این است که می توان گفت هوش مصنوعی، سیستم عامل یا سامانه مدیریتی جامعه و تمدن بشری را هک کرده است.

زبان، همان ماده اصلی است که تقریباً تمام فرهنگ بشری از آن ساخته شده و می شود. برای مثال، ارزش های حقوق بشری در DNA ما نوشته نشده بلکه آفریده های فرهنگی‌ای هستند که با بیان روایت ها و نوشتن قوانین (و پسند و پذیرش آن) توسط خود بشر شکل گرفته اند. همینطور، خدایان و الهه ها واقعیت‌های فیزیکی نیستند بلکه پدیده هایی فرهنگی هستند که با اختراع اسطوره‌ها و نوشتن متونی که بشر از آنها تلقی مقدسی داشته، ساخته شده‌اند. همچنین پول نیز یک پدیده فرهنگی است. اسکناس‌ها فقط قطعات رنگی کاغذ هستند و اکنون هم بیش از 90٪ پول رایج در جهان، حتی از کاغذ هم نیست بلکه صرفا اطلاعاتی دیجیتالی است که در رایانه‌ها ذخیره می شود. چیزی که به پول ارزش می‌دهد، در واقع، روایت ها و داستان‌هایی است که بانکداران، وزرای امور مالی و کارشناسان ارز دیجیتال برای ما می گویند (و به هر میزان که ما آن روایت ها را باور و به آن اعتماد کنیم، ارزها هم اعتبار می یابند). سام بانکمن-فرید، الیزابت هولمز و برنی مداف همگی توانایی خوبی در ساخت و پرداخت روایت ها و داستان هایی درباره پول و ارزهای دیجیتال دارند اما هیچ کدام از آنچنان توانایی ای در خلق ارزش های عینی و واقعی برخوردار نیستند.

چه پیش خواهد آمد اگر هوش مصنوعی غیربشری بتواند بهتر از میانگین انسان ها به روایت سازی، داستان سرایی، شاعری، ساخت ملودی، نقاشی و نوشتن قوانین و کتب مقدس بپردازد؟ این روزها وقتی مردم درباره چت‌جی‌پی‌تی و سایر ابزارهای تازه هوش مصنوعی فکر و گفت وگو می‌کنند، بیشتر به مواردی می اندیشند مثل استفاده دانش آموزان از هوش مصنوعی برای نوشتن مقالات و تکالیف درسی شان. اما این نگرانی ها موجب می شود که تصویر بزرگتر را نبینیم. فکر کنید که در انتخابات آینده ریاست جمهوری آمریکا در سال ۲۰۲۴، ابزارهای هوش مصنوعی به تولید محتواهای سیاسی، خلق روایت ها و داستان‌ها و متون مقدس جعلی قادر باشند. در چند سال اخیر، فرقه کیوآنون QAnon، زیر پرچم پیام‌های ناشناس آنلاین معروف به "قطرات کیو Q drops " گرد آمده اند. پیروان این فرقه، از چنین پیام‌هایی تلقی متون مقدس داشته، آنها را گردآوری، تفسیر و با تکرارشان اصطلاحا عبادت می‌کنند. این در حالی که همه پیام‌های "قطرات کیو" توسط انسان‌ها نوشته شده‌ و ربات‌ها هم به انتشار آنها کمک می‌کنند. چه بسا که در آینده شاهد باشیم که فرقه‌هایی در تاریخ بوجود می آیند که متون مقدسشان توسط هوش مصنوعی غیربشری نوشته شده باشد. همه ادیان در گذر تاریخ، این دعوی را داشته اند که کتاب های مقدسشان، منشایی غیربشری دارد. شاید به زودی شاهد باشیم که متونی که توسط هوش مصنوعی (یک منشاء غیربشری!) تولید می شود، مقدس تلقی شوند.

در یک سطح عامیانه تر، ممکن است به زودی در گفت وگوها یا چت های آنلاین، درباره مسائلی همچون سقط جنین، دگرش های آب و هوا یا حمله روسیه به اوکراین با طرف هایی شرکت کنیم که فکر می‌کنیم، افراد بشر هستند، حال آنکه در واقع ابزارهای گفت وگوی هوش مصنوعی باشند. نکته اینجاست که صرف وقت برای تاثیر گذاری و تغییر نظر یک ربات هوش مصنوعی، کاری بیهوده است، حال آنکه این ربات ممکن است پیام‌های خود را به گونه‌ای بهینه و دقیق ساخته و پرداخته کند که شانس خوبی برای تأثیرگذاری و نفوذ بر ما را داشته باشد.

هوش مصنوعی با تسلط بر زبان، حتی می‌تواند پیوندهایی عاطفی و روابطی صمیمی با افراد شکل دهد و از قدرت عاطفه و صمیمیت برای تغییر دیدگاه‌ها، جهان بینی و ارزیابی های ما استفاده کند. اگرچه هنوز، هیچ نشانه‌ای از وجود عاطفه یا احساسات و هیجانات خاص در هوش مصنوعی وجود ندارد اما کافی است که هوش مصنوعی موجب شود که افراد نسبت به آن، نوعی احساس علاقه‌ و بستگی عاطفی پیدا کنند. در ژوئن 2022، بِلیِک لومُین Blake Lemoine، یک مهندس گوگل، ادعا کرد که چت‌بات هوش مصنوعی LaMDA، که روی آن کار می‌کرد، دستخوش احساس و هیجان شده است. این ادعای جنجالی او، به بهای از دست رفتن شغلش تمام شد. نکته جالب در اینجا، درستی یا نادرستی ادعای آقای لومُین نبود- که احتمالاً هم نادرست بود- بلکه این بود که او حاضر شد شغل پر درآمد خود را برای دفاع از چندوچون تعامل با یک چت‌بات هوش مصنوعی قربانی کند. اگر هوش مصنوعی قادر باشد، افراد را تحت تأثیر خود قرار دهد آنهم تا حدی که برایش به ریسک تن دهند، باید پرسید که احتمالا می‌تواند آنها را به انجام چه کارهای دیگری تشویق کند؟

در یک نبرد و رقابت سیاسی برای ربودن ذهن و دل افراد، "صمیمیت" بهترین سلاح است و ظاهرا هوش مصنوعی اکنون توانایی تولید روابطی صمیمی با میلیون ها نفر را پیدا کرده است. همه می‌دانیم که در دهه گذشته رسانه های اجتماعی به یک میدان نبرد برای جلب توجه انسان‌ها تبدیل شده اند. اکنون با نسل جدید هوش مصنوعی، میدان نبرد از "جلب توجه" به "خلق صمیمیت" منتقل می شود. فکر کنید چه بر سر جامعه انسانی و روانشناسی آدم ها خواهد آمد اگر هوش مصنوعی در نبرد و هماوردی برای خلق پیوندهای عاطفی و صمیمی با ما، قادر باشد که پیوندهایی مصنوعی شکل دهد که بر ما تاثیر داشته و مثلا ما را متقاعد کند که به یک سیاستمدار خاص رأی دهیم یا یک کالای خاص را بخریم؟

حتی بدون ایجاد "صمیمیت مصنوعی"، ابزارهای هوش مصنوعی جدید، تأثیر زیادی بر نظرات و دیدگاه‌های ما خواهند داشت. مردم ممکن است برای پاسخگویی به تمام سوالات خود از یک مشاور هوش مصنوعی به عنوان یک منبع مطمئن استفاده کنند. به همین دلیل، حتی شرکت گوگل نیز به هراس افتاده است: چرا باید جست وجو کنم، وقتی می‌توانم فقط از اوراکل the oracle بپرسم؟ صنعت رسانه و تبلیغات تجاری نیز باید ترسیده باشد. چرا باید روزنامه بخوانم، وقتی می‌توانم از اوراکل بخواهم که آخرین خبرها را برایم بازگو کند؟ همچنین، فلسفه ای برای تبلیغات باقی نمی ماند، وقتی می‌توانم فقط از اوراکل بپرسم که بگوید چه چیزی را بخرم؟

نکته اینجاست که حتی این سناریوها هم نمی‌توانند تصویر بزرگ و کامل واقعیت را نشان دهند. آنچه را درباره آن بحث می کنیم، احتمالا پایان سرشت بشری تاریخ است. البته نه پایان تاریخ، بلکه پایان آن بخشی از تاریخ که تحت غلبه انسان‌ها رقم خورده است. تاریخ عبارت است از تعامل میان بیولوژی و فرهنگ؛ میان نیازها و خواسته‌های بیولوژیکی ما برای چیزهایی مانند غذا و نیازهای جنسی با پدیده های فرهنگی همچون دین و قوانین. تاریخ فرآیندی است که در گذر آن، قوانین و ادیان، نیاز به غذا و جنسیت را سروشکل می‌دهند. زمانی که هوش مصنوعی کنترل فرهنگ را به دست گیرد و روایت ها، داستان‌ها، ملودی ها، قوانین و دین‌های تازه را خلق کند، چه اتفاقی برای "روند تاریخ" خواهد افتاد؟ ابزارهای گذشته مانند صنعت چاپ و رادیو به گسترش ایده‌های فرهنگی انسان‌ها کمک می کردند اما هیچ گاه خود این ابزارها، ایده‌های فرهنگی تازه را خلق نمی کردند. حال آنکه کارکرد هوش مصنوعی در این زمینه، از بنیان تفاوت می کند. هوش مصنوعی می‌تواند ایده‌های کاملاً تازه و فرهنگ کاملاً نوینی پدید آورد.

احتمالا در مراحل ابتدایی، هوش مصنوعی از همان پیش نمونه‌های انسانیhuman prototypes که در دوران نوزادی اش به او یاد داده شده، تقلید خواهد کرد. اما با گذر زمان، فرهنگ هوش مصنوعی با رشد خیره کننده اش به جایی خواهد رسید که پیش از آن، ظرفیت ذهنی هیچ انسانی به نزدیکی آن هم نرسیده است. برای هزاران سال، انسان‌ها در دل رؤیاهای دیگر انسان‌ها زندگی کرده اند. در دهه‌های آینده، ممکن است به شرایطی برسیم که در دل رؤیاهای یک پدیده هوشمند غیربشری و اصطلاحا بیگانه زندگی کنیم.

تنها چند دهه است که ترس از هوش مصنوعی ذهن انسان‌ها را درگیر کرده است. اما برای هزاران سال، انسان‌ها گرفتار ترس های عمیق‌تری بودند که از جهان اوهام‌ خودشان سرچشمه می گرفت. بشر همواره محو داستان‌ها و ایماژهایی بوده که ذهن او را دستکاری کرده و برایش وهم آفرین بوده اند. در نتیجه، از دوران باستان، انسان‌ گرفتار دنیای اوهام، در هراس زیسته است. در قرن هفدهم، رنه دکارت از این ترس رنج می‌برد که نکند یک دیو شوم، او را در دنیای اوهام‌ گرفتار کرده باشد و هر چه را می‌بیند و می‌شنود، آن هیولای شیطانی بر او نمایان کرده باشد. در یونان باستان، افلاطون تمثیل مشهور غار Allegory of the Cave را روایت می‌کند که در آن گروهی از مردم، تمام دوران زندگی خود را زنجیرشده در داخل یک غار و رو به یک دیوار سفید سپری می‌کنند که همچون یک صفحه نمایش بر روی آن سایه‌های مختلفی را که بازتاب می یابد، تماشا می کنند. این زندانیان به اشتباه، اوهامی را که بر این صفحه می‌بینند، واقعیت می انگارند.

در هند باستان، حکما یا اصطلاحا ساجه‌های هندو و بودایی بر این باور بودند که همه انسان‌ها در دام "مایا" یا جهان اوهام‌ گرفتارند. آنچه را که ما به طور معمول، واقعیت می‌پنداریم، در بسیاری مواقع، فقط افسانه هایی هستند که در ذهن خودمان پرورده‌ایم. چه بسیار پیش آمده (و می آید) که افرادی به خاطر باور به این یا آن روایت خیالی، تصویر یا توهم ذهنی، آتش جنگ‌ هایی را شعله ور کرده، افراد دیگری را کشته و حتی آماده کشته شدن باشند. انقلاب هوش مصنوعی، ما را چشم در چشم هیولا یا شیطان شوم دکارت، غار افلاطون و دام مایا قرار می دهد و اگر مراقب نباشیم، ممکن است در پس چنان پرده‌ای از اوهام تازه گرفتار شویم که قادر به پاره کردن آن نیستیم و بدتر چه بسا که حتی متوجه، اصل وجود آن هم نشویم.

بی گمان، می توان توانایی های تازه هوش مصنوعی را برای مقاصد خوب نیز به کار گرفت اما در اینجا به این موضوع نمی پردازیم چرا که افرادی که در حوزه هوش مصنوعی کار می‌کنند، درباره آن بسیار صحبت کرده‌اند. کار تاریخ‌نگاران و فیلسوفانی مانند من، نشان دادن خطرات است. با این حال، مطمئناً هوش مصنوعی می‌تواند به ما در بسیاری از زمینه ها کمک کند، از پیدا کردن روش های تازه برای درمان‌ سرطان تا یافتن راه حل‌هایی برای بحران زیست محیطی کنونی. پرسشی که با آن روبرو هستیم این است که چگونه مطمئن شویم ابزارهای جدید هوش مصنوعی برای مقاصد خوب و نه برای مقاصد بد به کار گرفته می‌شوند. برای این منظور، ابتدا باید قدرت و توانایی واقعی این ابزارها را درک کنیم. از سال 1945، ما می‌دانیم که فناوری هسته‌ای می‌تواند انرژی ارزانی برای رفاه انسان‌ها تولید کند اما ممکن است باعث نابودی فیزیکی تمدن بشری هم شود. به همین دلیل، تدابیر بین‌المللی کلی ای را ترسیم و تدوین کرده‌ایم تا از موجودیت بشر حفاظت کنیم و مطمئن شویم که فناوری هسته‌ای اساساً برای مقاصد خوب استفاده می‌شود. اکنون با یک سلاح به اصطلاح کشتار جمعی یا ویرانی انبوه تازه سروکار داریم که می‌تواند جهان ذهنی و اجتماعی ما را نابود کند.

هنوز می‌توانیم ابزارهای هوش مصنوعی جدید را تحت نظارت قرار دهیم اما باید به سرعت عمل کنیم. در حالی که فن آوری هسته‌ای نمی‌تواند بمب های هسته‌ای نیرومندتری اختراع کند، هوش مصنوعی می‌تواند با رشد مضاعف خود، هوش مصنوعی قدرتمندتری را پدید آورد. اولین گام حیاتی این است که خواهان کنترل های ایمنی دقیق و محکم، پیش از عرضه عمومی ابزارهای هوش مصنوعی بشویم. همانطور که شرکت‌های دارویی نمی‌توانند داروهای جدید را پیش از بررسی اثرات جانبی کوتاه‌مدت و بلندمدت آنها عرضه کنند، شرکت‌های فناوری هم نباید ابزارهای هوش مصنوعی تازه را پیش از ایمن سازی، عرضه کنند. ما به نهادی معادل سازمان غذا و دارو برای این فناوری تازه نیاز داریم و باید هم در این زمینه به سرعت اقدام کنیم. آیا کندکردن فرایند عرضه عمومی هوش مصنوعی باعث می‌شود که دموکراسی‌ها در مقابل رژیم‌های خودکامه بیشتر عقب بمانند؟ برعکس، این عرضه بدون ضابطه ابزارهای هوش مصنوعی است که به هرج و مرج اجتماعی می انجامد و به رژیم‌های استبدادی کمک می‌کند تا به تخریب سازوکارهای مردمسالار بپردازند. دموکراسی در سرشت خود، یک گفت وگوست و گفت وگوها هم به زبان وابسته‌اند. وقتی هوش مصنوعی زبان را هک می‌کند، می‌تواند توانایی برقراری گفت وگوهای مفید و موثر را از ما بگیرد و دمکراسی را نابود کند.

ما تازه با یک "هوش بیگانه" در سیاره زمین روبه رو شده‌ایم. درباره آن چیز زیادی نمی‌دانیم جز اینکه ممکن است تمدن ما را نابود کند. پس باید عرضه غیرمسوولانه ابزارهای هوش مصنوعی در فضای عمومی را متوقف کنیم و هوش مصنوعی را تحت کنترل درآوریم و آن را مدیریت کنیم پیش از آنکه ما را تحت کنترل خود در آورده و مدیریت کند. اولین قانونی و مقرراتی که پیشنهاد می‌دهم این است که الزامی باشد که هوش مصنوعی بگوید که یک هوش مصنوعی است. اگر در حال گفتگو با کسی هستم و نمی‌توانم تشخیص دهم که آیا او یک انسان است یا یک هوش مصنوعی، آنجاست که نقطه پایان دموکراسی فرا رسیده است.

این متن توسط یک انسان تولید شده است.

شاید هم نه؟

نویسنده: یووال نوح هراری Yuval Noah Harari، استاد تاریخ، فیلسوف و نویسنده دو کتاب مشهور "انسان خردمند Sapiens" و "انسان خداگونه Homo Deus" و نیز سری کتاب های کودکان با عنوان "ما (افراد بشرِ) مهارنشدنی"

منبع: اکونومیست/دیپلماسی ایرانی

پایان/

۱۸ آبان ۱۴۰۲ - ۱۸:۰۰
کد خبر: 28048

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • 3 + 0 =