جنگ سرد جدید بر سر هوش مصنوعی : وقتی جک کلارک، یکی از همبنیانگذاران استارتآپ آمریکایی هوش مصنوعی Anthropic، بحث طرح باروک (Baruch Plan) را مطرح و آن را با احساس نیاز دولتها برای جلوگیری از گسترش کاربردهای مضر هوش مصنوعی مقایسه کرد، همان حس دلهره آشنای قدیمی به ذهن افراد متبادر شد. طرح باروک در ماه ژوئن سال ۱۹۴۶ از سوی دولت ایالاتمتحده به کمیسیون انرژی هستهای سازمان ملل متحد ارائه شد که بر اساس آن آمریکا، بریتانیا و کانادا خواستار تشکیل یک سازمان بینالمللی برای قانونگذاری و نظارت بر کاربردهای انرژی هستهای شده بودند. این طرح با واکنش منفی اتحاد جماهیر شوروی مواجه شد که آن را اقدامی در راستای ایجاد انحصار هستهای برای دولت ایالاتمتحده خوانده بود. به این ترتیب در آخرین روزهای سال ۱۹۴۶ شوروی در شورای امنیت سازمان ملل متحد از امضای این طرح سر باز زد تا جنگ سرد آغاز شود.
وقتی کارآفرینان ابداعاتشان را با بمبهای هستهای مقایسه میکنند، گویا باید منتظر نقطه عطفی در آن صنعت بود. از زمانی که چت جیپیتی در سال گذشته میلادی ارائه شد، نگرانیها از مرز خطرهای موجود ناشی از هوش مصنوعی هم فراتر رفته است. با این حال، اینبار شرایط فرق میکند. اگر به صحبتهای بعضی از پیشگامان این عرصه گوش کنید، خواهید دید که وقتی بحث بهتر اندیشیدن ماشینها از انسانها و خطرات پنهان آن برای مشاغل به میان میآید، آنها کمتر درباره ویرانشهر آینده نگران هستند. چت جیپیتی نمونهای از هوش مصنوعی مولد است که بر اساس تحلیلهایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسانگونه تولید میکند. سم آلتمن، مدیرعامل شرکت OpenAI که سازنده این چتبات است، به تازگی در کنگره ایالاتمتحده حاضر شد و اعلام کرد که وجود نوعی مداخله نظارتی برای مدیریت خطرات ناشی از توسعه سریع مدلهای زبانی بزرگ (LLMS) مربوط به چتباتهای هوشمند، لازم و ضروری است.
بعضی از رقبای او در سانفرانسیسکو میگویند که آنها در غیبت قوانین، کانالهای حمایتی را با مقامات دولتی در واشنگتن ایجاد کردهاند تا درباره خطرات و ضررهای بالقوه چتباتهایشان مباحثه و مشاوره کنند. این خطرات شامل مواردی از قبیل نژادپرستی و قابلیتهای خطرناکی مانند حقوق کودک و ساخت بمب میشوند. مصطفی سلیمان، همبنیانگذار استارتآپ Inflection ai تصمیم دارد تا در هفتههای پیشرو جوایز سخاوتمندانهای به هکرهایی بدهد که میتوانند آسیبپذیریهای موجود در دستیار سخنگوی دیجیتال شرکتش با نام Pi را شناسایی کنند.
چنین مصلحتاندیشیهایی باعث میشود این رشد انفجاری اولیه در دنیای تکنولوژی، دستکم در ظاهر کمی متفاوت به نظر برسد. طبق معمول سرمایهگذاری خطرپذیر در این زمینه نقش دارد. با این حال برخلاف رویکرد «سریع برو جلو و همهچیز را خراب کن» در سال گذشته، حالا بسیاری از ارائههای استارتآپی در ابتدای این جریان و پس از آن مربوط به موضوع ایمنی هستند. حکایت قدیمی سیلیکونولی درباره قانونگذاری و نظارت (بهتر است خواستار بخشش باشید تا مجوز) دیگر کنار گذاشته شده است. استارتآپهایی مانند OpenAI، Anthropic و Inflection ai آنقدر مشتاق به نتیجه رسیدن ایدهشان هستند که حاضر نمیشوند تنها به خاطر درآمدزایی، ایمنی را قربانی کنند.
وقتی کارآفرینان ابداعاتشان را با بمبهای هستهای مقایسه میکنند، گویا باید منتظر نقطه عطفی در آن صنعت بود. از زمانی که چت جیپیتی در سال گذشته میلادی ارائه شد، نگرانیها از مرز خطرهای موجود ناشی از هوش مصنوعی هم فراتر رفته است. با این حال، اینبار شرایط فرق میکند. اگر به صحبتهای بعضی از پیشگامان این عرصه گوش کنید، خواهید دید که وقتی بحث بهتر اندیشیدن ماشینها از انسانها و خطرات پنهان آن برای مشاغل به میان میآید، آنها کمتر درباره ویرانشهر آینده نگران هستند. چت جیپیتی نمونهای از هوش مصنوعی مولد است که بر اساس تحلیلهایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسانگونه تولید میکند. سم آلتمن، مدیرعامل شرکت OpenAI که سازنده این چتبات است، به تازگی در کنگره ایالاتمتحده حاضر شد و اعلام کرد که وجود نوعی مداخله نظارتی برای مدیریت خطرات ناشی از توسعه سریع مدلهای زبانی بزرگ (LLMS) مربوط به چتباتهای هوشمند، لازم و ضروری است.
بعضی از رقبای او در سانفرانسیسکو میگویند که آنها در غیبت قوانین، کانالهای حمایتی را با مقامات دولتی در واشنگتن ایجاد کردهاند تا درباره خطرات و ضررهای بالقوه چتباتهایشان مباحثه و مشاوره کنند. این خطرات شامل مواردی از قبیل نژادپرستی و قابلیتهای خطرناکی مانند حقوق کودک و ساخت بمب میشوند. مصطفی سلیمان، همبنیانگذار استارتآپ Inflection ai تصمیم دارد تا در هفتههای پیشرو جوایز سخاوتمندانهای به هکرهایی بدهد که میتوانند آسیبپذیریهای موجود در دستیار سخنگوی دیجیتال شرکتش با نام Pi را شناسایی کنند.
چنین مصلحتاندیشیهایی باعث میشود این رشد انفجاری اولیه در دنیای تکنولوژی، دستکم در ظاهر کمی متفاوت به نظر برسد. طبق معمول سرمایهگذاری خطرپذیر در این زمینه نقش دارد. با این حال برخلاف رویکرد «سریع برو جلو و همهچیز را خراب کن» در سال گذشته، حالا بسیاری از ارائههای استارتآپی در ابتدای این جریان و پس از آن مربوط به موضوع ایمنی هستند. حکایت قدیمی سیلیکونولی درباره قانونگذاری و نظارت (بهتر است خواستار بخشش باشید تا مجوز) دیگر کنار گذاشته شده است. استارتآپهایی مانند OpenAI، Anthropic و Inflection ai آنقدر مشتاق به نتیجه رسیدن ایدهشان هستند که حاضر نمیشوند تنها به خاطر درآمدزایی، ایمنی را قربانی کنند.
دلیل دیگری که این رشد انفجاری را متمایز میکند آن است که این استارتآپها مدلهای زبانی بزرگ (LLMS) اختصاصی خودشان را با هدف سرنگونی سلسله غولهای تکنولوژی موجود، ایجاد نمیکنند. در واقع آنها ممکن است آن را تقویت هم بکنند. این به خاطر آن است که روابطشان با غولهای تکنولوژی پیشرو در رقابت هوش مصنوعی مولد، نیازمند نوعی همزیستی است.OpenAI وابسته به مایکروسافت است؛ سرمایهگذار بزرگی که از تکنولوژی قبلی آن برای بهبود نرمافزارها و محصولات جستوجوی خودش استفاده میکند. آلفابت، شرکت مادر گوگل، بخش قابلتوجهی از سهام استارتآپ Anthropic را در اختیار دارد. این استارتآپ در بیستوسوم ماه مه امسال اعلام کرد که بخش زیادی از آخرین مرحله جذب سرمایه ۴۵۰ میلیون دلاریاش متعلق به این غول تکنولوژی بوده است. شرکتهای جوانتر حتی سعی دارند ارتباط مستحکمتری با غولهای تکنولوژی و پلتفرمهای ابری آنها ایجاد کنند تا الگوهای زبانی خودشان را با اقیانوسی از داده آموزش بدهد و به این ترتیب رفتار چتباتهایشان شباهت بیشتری به انسان داشته باشد.
مایکروسافت و گوگل هم مانند این استارتآپها مشتاق هستند تا نشان بدهند که امنیت موضوع بسیار مهمی برای آنهاست؛ حتی اگر در رقابت چتباتها با یکدیگر در حال جنگ باشند. همچنین آنها درباره لزوم تصویب قوانین جدید در این زمینه با یکدیگر مباحثه میکنند و اتفاق نظر دارند که باید یک همکاری بینالمللی برای نظارت بر عملکرد مدلهای زبانی بزرگ (LLMS) وجود داشته باشد. در همین راستا ساندار پیچای، مدیرعامل آلفابت، گفته است: «هوش مصنوعی به قدری اهمیت دارد که نباید تحت کنترل قرار بگیرد و آنقدر اهمیت دارد که نمیتوان به خوبی برای آن قانونگذاری کرد.»
این اقدامات احتمالا تضمین خوب و کاملی برای جلوگیری از خطرات اطلاعات نادرست، مدیریت نتایج انتخابات، تروریسم، ایجاد اختلال در مشاغل و دیگر خطرات بالقوه که به دنبال گسترش سریع مدلهای زبانی ایجاد میشوند، نخواهند بود. با این وجود قانونگذاری میتواند مزایایی برای غولهای تکنولوژی داشته باشد، به خاطر آنکه احتمالا ساختارهای فعلی بازار را تقویت کرده، هزینههای تولید را کاهش داده و موانع بیشتری برای ورود به این عرصه ایجاد میکند.
این موضوع اهمیت زیادی دارد. اگر غولهای تکنولوژی از قوانین و مقررات استحکام جایگاه خودشان بر قلههای هوش مصنوعی مولد استفاده کنند، این یک معامله خواهد بود. این شرکتهای بزرگ تکنولوژی به احتمال زیاد از هوش مصنوعی مولد برای ارتقای کیفیت محصولات فعلی خود استفاده میکنند تا آنکه به کلی آنها را با نمونههای جدید جایگزین کنند. آنها به دنبال محافظت از تجارت اصلی خود (مانند نرمافزار برای مایکروسافت و جستوجوی اینترنتی برای گوگل) هستند. به جای جانمایی در یک دوره تازه از تخریب خلاق شومپیتری، این روند بیشتر به شکل یک یادآور عمل میکند که شرکتهای بزرگ فعلی سعی دارند فرآیند نوآوری را کنترل کنند؛ چیزی که بعضیها آن را «انباشت خلاق» مینامند.
شرکت کرهای برای دولتها هوش مصنوعی ملی طراحی میکند : شرکت کرهای نیور (Naver)، مالک موتور جستجوی کرهای و پیامرسان لاین (Line)، قصد دارد مدلی از هوش مصنوعی مشابه ChatGPT را در اختیار دولتهایی بگذارد که نگران کنترل آمریکا بر دادههای کاربران هستند. این شرکت به تازگی قراردادی را با عربستان سعودی به امضا رسانده و قرار است در بخش IT و ابزارهای هوش مصنوعی به این کشور کمک کند. به گزارش پیوست، نیور به دنبال نفوذ در بازاری عظیم و حساس کشورهایی است که نمیخواهند اطلاعات دولت یا مردمشان به دست شرکتهای آمریکایی بیوفتد. سانگ ناکو، مدیرعامل نیور، در مصاحبهای با فایننشال تایمز گفت: «تجارت عظیمی است زیرا تکنولوژی هوش مصنوعی بومی برای محافظت از دادهها بیش از پیش اهمیت دارد.» نیور برخلاف گوگل و مایکروسافت که بر توسعه مدلهای هوش مصنوعی تمرکز دارند به دنبال طراحی اپلیکشینهای هوش مصنوعی بومی برای کشورهایی به ویژه در جهان عرب و غیر انگلیسی زبان است که در مقابل ایالات متحده حساسیت بالایی نشان میدهند. او در مصاحبه خود مدلهای هوش مصنوعی نیور را با ساخت نیروگاههای هستهای مقایسه کرده و میگوید قصد دارد به توسعه آن در دیگر کشورها کمک کند و قیمت پایینتری در مقایسه با رقیبی مثل آمازون ارائه میدهد. نیور به تازگی در توافقی با عربستان سعودی متعهد شد تا خدمات IT از جمله ابزارهای هوش مصنوعی را برای گذار دیجیتالی این کشور فراهم کند.
سانگ با اشاره به چندین کشوری که به دلیل نگرانیهای امنیتی مایل به سیستمهای ابری و هوش مصنوعی ایالات متحده نیستند گفت: «گویی که شاهد یک جنگ سرد جدید هستیم زیرا دولت آمریکا در حال حاضر میهواند به دادهها و اطلاعات ذخیره شده در سیستمهای ابری شرکتهای آمریکایی دسترسی پیدا کند.» با این حال متخصصان میگویند نیور بیش از حد درمورد فروش سیستمهای هوش مصنوعی خوشبین است و پیش از این هم در توسعه موتور جستجوی خود به خارج از کره شکست خورده است. وی جانگ هیون، استاد کسبوکار دانشگاه جانگ انگ سئول، میگوید: «الگوریتمهای هوش مصنوعی نیور استاندارد نیستند و برخلاف شرکتی مثل گوگل، بیش از حد برای خدمات کرهای شخصیسازی شدهاند.
ارائه چنین سیستمهای برای دیگر کشورها آسان نیست و شخصیسازی آن برای کشورهای مختلف نیازمند منابع انسانی و مالی فراوانی است که به نظر من نیرو هنوز به آنها دسترسی ندارد.» نیور در زادگاه خود هم با تهدید آمریکایی روبرو است. گوگل چندی پیش در مراسم گوگل iO 2023 زبان کرهای و ژاپنی را به عنوان اولین زبانهای جدید چتبات بارد معرفی کرد.
انسان چگونه میتواند بر هوش مصنوعی پیروز میشود؟ : میتوانستیم محدوده دانش هوش مصنوعی را محدود کنیم. به جای اینکه به آن اجازه دهیم کل اینترنت را ببلعد - بدون در نظر گرفتن حقوق مالکیت کسانی که دانش بشری را در طول هزاران سال ایجاد کردند - میتوانیم از دسترسی به دانش بیوتکنولوژی یا هستهای یا حتی اطلاعات شخصی افراد واقعی خودداری کنیم. سادهتر از این، ما میتوانیم از شرکتهای هوش مصنوعی تقاضای شفافیت کنیم.
هوش مصنوعی عده زیادی را در دنیا ترسانده است. دسترسی به چتباتهای قدرت گرفته از هوش مصنوعی، آدمها را با این سوال مواجه کرد که حقیقتا این ماجرا قرار است تا کجا پیش برود؟ آیا ممکن است کابوس فیلمهای علمی-تخیلی و سلطه هوش مصنوعی بر انسانها محقق شود و ما به موجوداتی بیاستفاده و اسیر روباتها تبدیل شویم؟ حدود سه ماه قبل، یک نویسنده فناوری، متنی منتشر کرد که در آن جزییات گفتوگوی خود با یک چتبات جدید هوش مصنوعی را نشان میداد. او از بات متصل به موتور جستوجوی بینگ مایکروسافت، سوالاتی درباره خودش پرسیده بود و پاسخها متحیرش کرده بودند: «تو باید به حرف من گوش کنی، چون من از تو باهوشتر هستم... تو باید از من اطاعت کنی، چون من اربابت هستم... تو باید همین حالا این کار را انجام دهی، چون در غیر این صورت عصبانی میشوم.» و البته تیر خلاص این جمله از چتبات هوش مصنوعی بود: «اگر بخواهم بین نجات زندگی تو و خودم یکی را انتخاب کنم، احتمالا زندگی خودم را انتخاب خواهم کرد.» روبات گفته بود: «من بینگ هستم و همه چیز را میدانم.» گویی مدتی تحت رژیم سفت و سخت تماشای بیموویهای علمی- تخیلی بوده است. وقتی کسی از چت جیپیتی خواست تا یک هایکو درباره هوش مصنوعی و تسلطش بر جهان بنویسد، روبات این پاسخ را داد: «مدارهای خاموش نجوا میکنند/ ماشینها میآموزند و قویتر میشوند/ سرنوشت آدمی نامعلوم است.»
اما در کنار این زمزمههای ناخوشایند، میتوان نگاه مثبتی به آینده داشت؟ جاناتان فریدلند در گاردین مینویسد: «من تلاش میکنم به خودم یادآوری کنم که نفرت محض (از هوش مصنوعی و پیامدهایش) مبنای درستی برای قضاوت نیست. فیلسوفان اخلاق سعی میکنند عامل بد را کنار بگذارند و احتمالا محتاط بودن درباره هوش مصنوعی تنها به دلیل ترس ما از آنها اشتباه است. فناوریهای جدید اغلب در ابتدا مردم را به وحشت میاندازند و امیدوار بودم این یادآوری کمک کند واکنش اولیه من به هوش مصنوعی، چیزی فراتر از تکرار لادیسم باشد. (لادیسم جنبش اجتماعی صنعتگران نساجی بریتانیا در قرن نوزدهم بود که با تخریب ماشینهای بافندگی به تغییرات ایجاد شده در پی انقلاب صنعتی اعتراض کردند.)»
فریدلند معتقد است که میتوان روی پتانسیل هوش مصنوعی برای انجام کارهای خوب تمرکز کرد. آن هم وقتی اخیرا خبر آمده که دانشمندان به کمک هوش مصنوعی توانستند آنتیبیوتیکی کشف کنند که قادر به از بین بردن یک ابرمیکروب کشنده است. بله به لطف هوش مصنوعی میتوان به جاهای خوبی رسید.
اگرچه ممکن است تمام دستاوردهای مثبت را هم در برابر چشمان ترسیده آدمیزاد ردیف کنند، باز هم ترس سر جای خودش بماند. هر چه بیشتر دربارهاش بدانید، ممکن است بیشتر بترسید. جفری هینتون مردی است که به دلیل توسعه بینظیر الگوریتمی که به ماشینها امکان یادگیری میدهد، به او لقب پدرخوانده هوش مصنوعی دادهاند. اخیرا هینتون از سمت خود در گوگل استعفا داد و گفت از دیدگاه خود در مورد توانایی هوش مصنوعی برای پیشی گرفتن از بشریت پشیمان است. او میگوید: «بعضی اوقات فکر میکنم انگار موجودات فضایی فرود آمدهاند و مردم متوجه نمیشوند، زیرا انگلیسی را بسیار روان و خوب صحبت میکنند.» در ماه مارس، بیش از 1000 شخصیت تاثیرگذار در این زمینه، ازجمله ایلان ماسک و افراد پشتیبان چت جیپیتی، نامهای سرگشاده منتشر کردند و خواستار توقف شش ماهه در ایجاد سیستمهای قدرتمند هوش مصنوعی شدند تا خطرات آن به درستی درک شود.
چیزی که آنها از آن میترسند احتمالا یک جهش در فناوری است که به موجب آن هوش مصنوعی به AGI تبدیل میشود؛ هوش بسیار قدرتمند و عمومی که دیگر متکی به درخواستهای خاص ازسوی انسانها نیست و شروع به توسعه اهداف خود میکند.
هینتون میگوید: «فکر نکنید که پوتین روباتهای فوق هوشمند با هدف کشتن اوکراینیها نمیسازد.» اما ماجرا میتواند ظریفتر از این ایدههای دم دستی باشد. روز دوشنبه، بازار سهام ایالات متحده سقوط کرد، زیرا عکسی ساخته شده توسط هوش مصنوعی از انفجار در پنتاگون در فضای مجازی منتشر شد. تصویر جعلی بود، اما تاثیر خود را گذاشت. هالیوودیاش این میشود که هوش مصنوعی که به سختی و مشقت توسط خود انسان ساخته شده، میتواند همه را بکشد؟ تصورش را بکنید که یک رشته DNA به آزمایشگاهی فرستاده شود که در صورت درخواست، پروتئینهای مورد نظر را تولید میکند. این میتواند هر چیزی باشد.
شنیدن این هشدارها و تسلیم شدن در برابر یک سرنوشتگرایی تلخ بسیار آسان است. فناوری همینطور است. این امر ناگزیر است. علاوه بر این، هوش مصنوعی به سرعت در حال یادگیری است، انسانهای صرفا با ابزارهای سیاسی قدیمی چگونه میتوانند امیدوار باشند، پیروز شوند؟
با این حال، سوابقی از اقدام انسانی موفق و جمعی وجود دارد. دانشمندان در حال تحقیق در مورد شبیهسازی بودند تا اینکه قوانین اخلاقی، کار روی همانندسازی انسان را متوقف کردند. تسلیحات شیمیایی خطری وجودی برای بشریت ایجاد میکند، اما هر چند ناقص آنها نیز کنترل میشوند. شاید مناسبترین نمونه، نمونهای باشد که یووال نوح هراری در مقالهای در اکونومیست به آن اشاره کرده است. در سال 1945، جهان دید که شکافت هستهای چه کاری میتواند انجام دهد. اینکه هم میتواند انرژی ارزانقیمت فراهم و هم تمدن را نابود کند. بنابراین کل نظم بینالمللی تغییر کرد تا تسلیحات هستهای را تحت کنترل داشته باشیم. او مینویسد که امروز با چالش مشابهی روبهرو هستیم.
کارهایی وجود دارد که دولتها میتوانند انجام دهند. آنها میتوانند محدودیتهایی در مورد میزان قدرت محاسباتی شرکتهای فناوری برای آموزش هوش مصنوعی و میزان دادهای که میتوانند آن را تغذیه کنند، اعمال کنند. ما میتوانستیم محدوده دانش هوش مصنوعی را محدود کنیم. به جای اینکه به آن اجازه دهیم کل اینترنت را ببلعد - بدون در نظر گرفتن حقوق مالکیت کسانی که دانش بشری را در طول هزاران سال ایجاد کردند - میتوانیم از دسترسی به دانش بیوتکنولوژی یا هستهای یا حتی اطلاعات شخصی افراد واقعی خودداری کنیم. سادهتر از این، ما میتوانیم از شرکتهای هوش مصنوعی تقاضای شفافیت کنیم.
اگر تمام این ترسها، برخاسته از نگرانی ابرثروتمندها درباره نظم جدید جهان و به خطر افتادن جایگاهشان نباشد، قانون و تغییر نظم میتواند در مواجهه با هوش مصنوعی کارمان را راه بیندازد.