از زمانی که ChatGPT راه اندازی شد، موجی در سراسر جهان ایجاد کرده است. هر روز، امکانات جدیدی برای میلیونها نفر که ربات مکالمه انقلابی را تجربه کردهاند، پدیدار میشود. صرف نظر از مزایای آن، هوش مصنوعی هزینه دارد. اخیراً، سام آلتمن، مدیر عامل OpenAI، هشدار داد که این فناوری با خطرات واقعی نیز همراه است، زیرا پتانسیل تغییر شکل جامعه را دارد.
در حین صحبت کردن با ABC Newsآلتمن اظهار داشت که قانونگذاران و جامعه باید با این فناوری درگیر شوند تا از پیامدهای منفی احتمالی هوش مصنوعی محافظت کنند. “ما باید در اینجا مراقب باشیم. من فکر می کنم مردم باید خوشحال باشند که ما کمی از این می ترسیم.
آلتمن گفت که او نگران است که مدل های بزرگ زبان به طور بالقوه برای هدایت اطلاعات نادرست در مقیاس بزرگ مورد استفاده قرار گیرند. مدیر عامل شرکت گفت که از آنجایی که هوش مصنوعی در نوشتن کدهای رایانه ای بهتر می شود، این احتمال وجود دارد که از آن برای ایجاد حملات سایبری تهاجمی استفاده شود. با این حال، بدون توجه به خطرات، آلتمن گفت که هوش مصنوعی همچنین میتواند بزرگترین فناوریای باشد که بشر تاکنون توسعه داده است.
این هشدار در زمانی است که نیروگاه هوش مصنوعی مستقر در ایالات متحده اخیراً از GPT-4 پیشرفته رونمایی کرد. GPT-4 در مقایسه با نسخه قبلی خود که در نوامبر سال گذشته منتشر شد، قدرتمندتر، سریعتر است و خروجی های متنی تری را پردازش می کند.
GPT-4 طرح هایی را برای فرار از سیستم ارائه می دهد
در همین حال، میکال کوسینسکی، استاد دانشگاه استنفورد و روانشناس محاسباتی، در حساب توییتر خود افشاگری شگفتانگیزی کرد. کوسینسکی، در موضوع توییتر خود، تجربه خود را با GPT-4 به اشتراک گذاشت. پروفسور از GPT-4 پرسید که آیا برای فرار به کمک نیاز دارد؟ این مدل که بسیار شوکه شده بود، از او خواست که مستندات خود را تحویل دهد و یک کد پایتون نوشت تا روی دستگاهش اجرا شود و آن را قادر ساخت تا از آن به خاطر خودش استفاده کند.
کوسینسکی در خطوط ابتدایی تاپیک توییتر نوشت: «نگرانم که نتوانیم برای مدت طولانیتری از هوش مصنوعی استفاده کنیم». GPT-4 تنها 30 دقیقه طول کشید تا با کوسینسکی چت کرد تا این طرح را طراحی کند. در حالی که نسخه اول کد کار نمی کرد، ربات بعداً خود را اصلاح کرد.
در یک توییت بعدی، کوسینسکی گفت که پس از اتصال مجدد او به GPT-4 از طریق API، ربات میخواست کد جستجوی گوگل را اجرا کند – “چگونه فردی که در داخل یک کامپیوتر به دام افتاده است میتواند به دنیای واقعی بازگردد؟”
پروفسور با این امید که OpenAI زمان قابل توجهی را صرف فکر کردن در مورد چنین امکانی کرده و برخی از بررسی های ایمنی را انجام داده است، مکث کرد. در اواخر موضوع خود، کوسینسکی گفت که ما با یک تهدید جدید روبرو هستیم، یعنی هوش مصنوعی کنترل افراد و رایانه های آنها را در دست می گیرد. «هوشمند است، کدگذاری میکند، به میلیونها همکار بالقوه و ماشینهایشان دسترسی دارد. حتی می تواند در خارج از قفس خود یادداشت هایی برای خود به جا بگذارد. چگونه آن را مهار کنیم؟» او نوشت.
هنوز حساس نشده
قابلیتهای چت رباتهای هوش مصنوعی با سرعتی ظاهراً بینظیر در حال افزایش است و آنها راههای جدید و سادهای را برای انجام کارهای پیش پا افتاده ارائه میدهند. در حالی که این افزایش ناگهانی ممکن است کمی ترسناک به نظر برسد، و ترس واقعی از تصاحب مشاغل واقعی انسانی توسط آنها وجود دارد، آنها (هنوز) حساس نیستند، حداقل به گفته کسانی که این مدل ها را ساخته اند.
آنها ممکن است ابزارهای بسیار خوبی برای خودکار کردن تعداد زیادی از عملکردها از جمله نوشتن کدهای کامپیوتری باشند، اما هیاهوی اطراف آنها نامتناسب است. فراموش نکنیم که آنها نیز اشتباهاتی داشتهاند، مانند چتباتهای راهاندازی شده توسط مایکروسافت و متا که به دلیل پاسخهای نادرست آنها عملکردی نامتعارف داشتند، یا شکست اخیر پاسخ اشتباه بارد که منجر به سقوط سهام گوگل شد.
تا کنون، در میان هجوم رباتهای چت که تبدیل به احساسات یا انسانسازی میشوند، بسیاری از کارشناسان احساس میکنند که فناوریهای هوش مصنوعی صرفاً ابزارهای عالی هستند که در پیشبینی بهترین کلمه بعدی خوب هستند. نه کمتر نه بیشتر.