وقتی کارآفرینان ابداعات‌شان را با بمب‌های هسته‌ای مقایسه می‌کنند، گویا باید منتظر نقطه عطفی در آن صنعت بود. از زمانی که چت جی‌پی‌تی در سال گذشته میلادی ارائه شد، نگرانی‌ها از مرز خطرهای موجود ناشی از هوش مصنوعی هم فراتر رفته است. با این حال، این‌بار شرایط فرق می‌کند. اگر به صحبت‌های بعضی از پیشگامان این عرصه گوش کنید، خواهید دید که وقتی بحث بهتر اندیشیدن ماشین‌ها از انسان‌ها و خطرات پنهان آن برای مشاغل به میان می‌آید، آنها کمتر درباره ویرانشهر آینده نگران هستند. چت جی‌پی‌تی نمونه‌ای از هوش مصنوعی مولد است که بر اساس تحلیل‌هایش از متون، تصاویر و صداهای موجود در اینترنت، محتوای انسان‌گونه تولید می‌کند. سم آلتمن، مدیرعامل شرکت OpenAI که سازنده این چت‌بات است، به تازگی در کنگره ایالات‌متحده حاضر شد و اعلام کرد که وجود نوعی مداخله نظارتی برای مدیریت خطرات ناشی از توسعه سریع مدل‌های زبانی بزرگ (LLMS) مربوط به چت‌بات‌های هوشمند، لازم و ضروری است.

بعضی از رقبای او در سانفرانسیسکو می‌گویند که آنها در غیبت قوانین، کانال‌های حمایتی را با مقامات دولتی در واشنگتن ایجاد کرده‌اند تا درباره خطرات و ضررهای بالقوه چت‌بات‌هایشان مباحثه و مشاوره کنند. این خطرات شامل مواردی از قبیل نژادپرستی و قابلیت‌های خطرناکی مانند حقوق کودک و ساخت بمب می‌شوند. مصطفی سلیمان، هم‌بنیان‌گذار استارت‌آپ Inflection ai تصمیم دارد تا در هفته‌های پیش‌رو جوایز سخاوتمندانه‌ای به هکرهایی بدهد که می‌توانند آسیب‌پذیری‌های موجود در دستیار سخنگوی دیجیتال شرکتش با نام Pi را شناسایی کنند.

 

 

چنین مصلحت‌اندیشی‌هایی باعث می‌شود این رشد انفجاری اولیه در دنیای تکنولوژی، دست‌کم در ظاهر کمی متفاوت به نظر برسد. طبق معمول سرمایه‌گذاری خطرپذیر در این زمینه نقش دارد. با این حال برخلاف رویکرد «سریع برو جلو و همه‌چیز را خراب کن» در سال گذشته، حالا بسیاری از ارائه‌های استارت‌آپی در ابتدای این جریان و پس از آن مربوط به موضوع ایمنی هستند. حکایت قدیمی سیلیکون‌ولی درباره قانون‌گذاری و نظارت (بهتر است خواستار بخشش باشید تا مجوز) دیگر کنار گذاشته شده است. استارت‌آپ‌هایی مانند OpenAI، Anthropic و Inflection ai آن‌قدر مشتاق به نتیجه رسیدن ایده‌شان هستند که حاضر نمی‌شوند تنها به خاطر درآمدزایی، ایمنی را قربانی کنند.

 

دلیل دیگری که این رشد انفجاری را متمایز می‌کند آن است که این استارت‌آپ‌ها مدل‌های زبانی بزرگ (LLMS) اختصاصی خودشان را با هدف سرنگونی سلسله غول‌های تکنولوژی موجود، ایجاد نمی‌کنند. در واقع آنها ممکن است آن را تقویت هم بکنند. این به خاطر آن است که روابط‌شان با غول‌های تکنولوژی پیشرو در رقابت هوش مصنوعی مولد، نیازمند نوعی همزیستی است.‌OpenAI وابسته به مایکروسافت است؛ سرمایه‌گذار بزرگی که از تکنولوژی قبلی آن برای بهبود نرم‌افزارها و محصولات جست‌وجوی خودش استفاده می‌کند. آلفابت، شرکت مادر گوگل، بخش قابل‌توجهی از سهام استارت‌آپ Anthropic را در اختیار دارد. این استارت‌آپ در بیست‌وسوم ماه مه ‌امسال اعلام کرد که بخش زیادی از آخرین مرحله جذب سرمایه ۴۵۰ میلیون دلاری‌اش متعلق به این غول تکنولوژی بوده است. شرکت‌های جوان‌تر حتی سعی دارند ارتباط مستحکم‌تری با غول‌های تکنولوژی و پلتفرم‌های ابری آنها ایجاد کنند تا الگوهای زبانی خودشان را با اقیانوسی از داده آموزش بدهد و به این ترتیب رفتار چت‌بات‌های‌شان شباهت بیشتری به انسان داشته باشد.

مایکروسافت و گوگل هم مانند این استارت‌آپ‌ها مشتاق هستند تا نشان بدهند که امنیت موضوع بسیار مهمی برای آنهاست؛ حتی اگر در رقابت چت‌بات‌ها با یکدیگر در حال جنگ باشند. همچنین آنها درباره لزوم تصویب قوانین جدید در این زمینه با یکدیگر مباحثه می‌کنند و اتفاق نظر دارند که باید یک همکاری بین‌المللی برای نظارت بر عملکرد مدل‌های زبانی بزرگ (LLMS) وجود داشته باشد. در همین راستا ساندار پیچای، مدیرعامل آلفابت، گفته است: «هوش مصنوعی به قدری اهمیت دارد که نباید تحت کنترل قرار بگیرد و آنقدر اهمیت دارد که نمی‌توان به خوبی برای آن قانون‌گذاری کرد.»