در حالی که ایلان ماسک برای گسترش حوزهی هوش مصنوعی (AI) تلاش میکند، عقیده دارد که احتمالی قوی وجود دارد که AI در آینده، به تهدیدی برای بشریت تبدیل شود. در مصاحبه با مجلهی Rolling Stone، وی ادعا کرد که شانس ما برای امن ساختن و کنترل هوش مصنوعی، چیزی بین ۵ تا ۱۰ درصد است.
اوضاع خوب به نظر نمیرسد!
ایلان ماسک وقت و انرژی زیادی برای رشد در زمینهی هوش مصنوعی صرف میکند،؛ او عقیده دارد که به منظور بقا، لازم است با ماشینها ادغام شویم. برای این منظور حتی فعالیت خود را در زمینهی تکولوژیِ اتصال مغز-کامپیوتر (BCI) آغاز کرده است تا این ایده را محقق کند. با وجود ابن حقیقت که آزمایشگاه خود او با نام OpenAI توانسته است هوشی مصنوعی با تواناییِ خودآموزی را رشد دهد، ماسک اخیراً اعلام کرده است با وجود تمام تلاشهایی که برای برقراریِ امنیت در این حوزه انجام میشود، شانس تحقق این هدف بین ۵ تا ۱۰ درصد است. شاید عجیب به نظر برسد که مرد شمارهی یک در پیشرفت هوش مصنوعی، نه تنها زمینهی خطرآفرین بودن آن را میپذیرد، بلکه قولهای جدی در ایجاد مشکلاتی را نیز میدهد!
مقالهی مرتبط: ۲۲۱۷؛ به زمین خوش آمدید
چالشهایی که در امنسازیِ هوش مصنوعی وجود دارند را میتوان در دوسته طبقهبندی کرد. ابتدا، هدف اصلی AI، که شرکت OpenAI در حال حاضر در جهت تحقق آن تلاش میکند، ساخت هوشی مصنوعی است که نه تنها از انسان هوشمندتر است، بلکه توانایی یادگیریِ مستقل را نیز دارا باشد؛ بدین معنا که بدون دخالت انسان یا برنامهریزی بتواند آموزش یابد. آیندهای که با دستیابی به این هدف در پیش است، کاملا نامعلوم است!
به علاوه، حقیقت این است که ماشینها از اخلاقیات، پشیمانی یا احساسات بیبهرهاند. هوش مصنوعی ممکن است در نهایت تفاوت بین اعمال “خوب” و “بد” را بتواند تشخیص دهد اما احساسات همچنان مختص انسانها باقی خواند ماند.
در مقالهی Rolling Stone، ماسک خطرات و مشکلاتی که در حال حاضر در AI وجود دارد را شرح داده است. یکی از آنان، توانایی حدود تنها چند کمپانی در سراسر دنیا برای کنترل AI است. مثال بارز او در این زمینه، DeepMind متعلق به Google است. او میگوید:
فیسبوک، گوگل و آمازون، و به طور شکبرانگیزی کمپانیِ اپل، به نظر میرسد تنها به محیط خصوصی اهمیت داده میشود؛ آنان اطلاعاتی بسیار بیشتر از چیزی که تصور میکنید، دربارهی شما دارند. ریسک بسیار بالایی در تمرکز قدرت وجود دارد، بنابراین اگر هوش مصنوعیِ کلی (AGI) قدرت بسیار بالایی را به دنبال دارد، آیا تنها باید توسط افراد محدودی در کمپانی گوگل، بدون هیچ نظارتی، کنترل شود؟
آیا AI ارزش ریسک را دارد؟
محققان دربارهی آنچه توسط ایلان ماسک دربارهی خطرات هوش مصنوعی مطرح شده است، اتفاق نظر ندارند. بنیانگذار فیسبوک، مارک زاکربرگ در رابطه با آیندهی بشریت و AI، عقایدی خوشبینانهتر دارد و هشدارهای ماسک را دربارهی آن، “نسبتاً غیرمسئولانه” میخواند.
در این میان، استیون هاوکینگ نیز نظر خود را به شکل عمومی دربارهی سیستم AI مطرح کرده است و عقیده دارد؛ ممکن است روزی جایگزین بشریت شود.
در حال حاضر، سیستمهای AI وجود دارند که قابلیت ساخت سیستمهای AI دیگر را دارند، میتوانند با زبانی مشترک با یکدیگر ارتباط برقرار کنند و انواعی که به طور طبیعی، “کنجکاو” طراحی شدهاند.
بر اساس پیشبینی کورزویل، که تا ۲۰۴۵ هوش مصنوعی از هوش انسانی پیشی میگیرد و سایر برنامههایی که با گسترش روباتها امکانپذیر میشوند، پیشرفت AI میتواند در شکلگیری آیندهی بشریت تعیینکننده است.
ترسهایی که در این باره وجود دارند، برای جلوگیری کردن از پیشرفت کافی نیستند؛ مثالهای متعددی از مزایای هوش مصنوعی وجود دارند؛ از قبیل تشخیص سرطان و رفتارهای مرتبط با خودکشی و کمک به توقف ترافیک جنسی که توقف آن را عملاً امکانناپذیر میکنند.
این تکنولوژی پتانسیل نجات دادن جان و بهبود زندگیهای بسیاری را دارا است، بنابراین علاوه بر در نظر داشتن ابداع روشهایی برای امنسازی آن، باید در نظر داشت که سخنان ماسک تنها عقیدهی یک نفر محسوب میشوند.
خود وی نیز در ادامه میگوید:
اجازه دهید این موضوع را شفاف مطرح کنم؛ من پاسخ همهی سوالات را نمیدانم. تلاش میکنم اعمالی که برای رسیدن به آیندهای بهتر نیاز است را برنامهریزی کنم. در صورتی که پیشنهادی در این باره دارید، لطفاً با من درمیان بگذارید.