بارسلونا – با نگرانی از خطرات فزاینده ناشی از پلتفرمهای هوش مصنوعی مولد (AI) مانند ChatGPT، تنظیمکنندهها و سازمانهای مجری قانون در اروپا به دنبال راههایی برای کاهش سرعت حرکت بشر به آینده دیجیتال هستند.
ChatGPT که به پرسشهای کاربران در قالب مقاله، شعر، صفحهگسترده و کد رایانه پاسخ میدهد، با چند حفاظ در محل، بیش از 1.6 میلیارد بازدید را از دسامبر به ثبت رسانده است. یوروپل، آژانس اتحادیه اروپا برای همکاری اجرای قانون، در پایان ماه مارس هشدار داد که ChatGPT، تنها یکی از هزاران پلتفرم هوش مصنوعی که در حال حاضر استفاده می شود، می تواند به مجرمان در زمینه فیشینگ، ایجاد بدافزار و حتی اقدامات تروریستی کمک کند.
در گزارش یوروپل آمده است: «اگر یک مجرم بالقوه چیزی در مورد یک حوزه جرم خاص نداند، ChatGPT میتواند با ارائه اطلاعات کلیدی که میتواند در مراحل بعدی بیشتر مورد بررسی قرار گیرد، روند تحقیق را به میزان قابل توجهی سرعت بخشد. “به این ترتیب، ChatGPT می تواند برای یادگیری در مورد تعداد زیادی از مناطق جرم و جنایت بالقوه بدون دانش قبلی، از نحوه نفوذ به خانه گرفته تا تروریسم، جرایم سایبری و سوء استفاده جنسی از کودکان استفاده شود.”
ماه گذشته، ایتالیا پس از فاش شدن فایلهای کاربر، ChatGPT را به طور موقت ممنوع کرد. هیئت ایتالیایی حقوق حریم خصوصی Garante خالق برنامه OpenAI را تهدید کرد که میلیونها دلار جریمه برای نقض حریم خصوصی خواهد داشت تا زمانی که به سؤالات مربوط به کجا میرود اطلاعات کاربران و ایجاد محدودیتهای سنی در این پلتفرم بپردازد. اسپانیا، فرانسه و آلمان در حال بررسی شکایات مربوط به نقض داده های شخصی هستند – و در این ماه، هیئت حفاظت از داده های اروپایی اتحادیه اروپا یک کارگروه را برای هماهنگی مقررات در سراسر اتحادیه اروپا 27 کشور تشکیل داد.
دراگوس تودوراچ، قانونگذار اتحادیه اروپا، یکی از حامیان قانون هوش مصنوعی، که در پارلمان اروپا در حال نهایی شدن است و یک مرجع مرکزی هوش مصنوعی ایجاد می کند، به یاهو نیوز گفت: «این یک زنگ بیدارباش در اروپا است. ما باید به وضوح تشخیص دهیم که چه اتفاقی میافتد و چگونه قوانین را تنظیم کنیم.»
اگرچه هوش مصنوعی چندین سال است که بخشی از زندگی روزمره بوده است – الکسا و بازیهای شطرنج آنلاین آمازون تنها دو نمونه از نمونههای بسیار هستند – هیچ چیز مانند ChatGPT، یک «مدل زبان بزرگ» تعاملی که کاربران میتوانند آن را داشته باشند، پتانسیل هوش مصنوعی را به ارمغان نیاورده است. سوالات پاسخ داده شده یا تکالیف تکمیل شده در چند ثانیه.
مارک بانگر، یکی از بنیانگذاران Futurity Systems، یک آژانس مشاوره مستقر در بارسلون که بر نوآوری مبتنی بر علم متمرکز است، گفت: “ChatGPT دانشی دارد که حتی تعداد کمی از انسان ها از آن برخوردار هستند.” “از جمله چیزهایی که بیشتر از انسانها می داند این است که چگونه یک کامپیوتر را برنامه ریزی کند. بنابراین، احتمالاً برنامه ریزی نسخه بعدی و بهتر خود بسیار خوب و سریع خواهد بود. و که نسخه حتی بهتر خواهد بود و چیزی را برنامه ریزی می کند که هیچ انسانی حتی نمی فهمد.
کارشناسان میگویند، فناوری کارآمد شگفتانگیز درها را برای انواع کلاهبرداریها از جمله سرقت هویت و سرقت ادبی در مدارس باز میکند.
نیک تیلور، معاون مرکز رباتیک ادینبورگ، «نیک تیلور، معاون مرکز رباتیک ادینبورگ، برای معلمان، این امکان وجود دارد که درسهای ارائهشده توسط یک سیستم هوش مصنوعی مولد مانند ChatGPT OpenAI یا Bard نوشته شده باشد یا به طور کامل نوشته شده باشد. ، به یاهو نیوز گفت.
OpenAI و مایکروسافت که از OpenAI حمایت مالی کرده اند اما یک ربات چت رقیب توسعه داده اند. به درخواست نظر برای این مقاله پاسخ نداد.
سیسیلیا تام، مدیرعامل Futurity Systems گفت: «هوش مصنوعی دههها است که وجود داشته است، اما اکنون در حال رشد است، زیرا برای استفاده همه در دسترس است. تام گفت از زمانی که ChatGPT به عنوان یک آزمایش رایگان برای عموم در 30 نوامبر معرفی شد، برنامه نویسان آن را برای توسعه هزاران ربات چت جدید، از PlantGPT که به نظارت بر گیاهان آپارتمانی کمک می کند تا ChaosGPT فرضی که برای تولید طراحی شده است، تطبیق داده اند. نتایج هرج و مرج یا غیرقابل پیش بینی، طبق وب سایت آن، و در نهایت «بشریت را نابود می کند».
یک تغییر دیگر، AutoGPT، مخفف Autonomous GPT، میتواند وظایف هدفمحور پیچیدهتری را انجام دهد. تام گفت: «به عنوان مثال، میتوانی بگوییم من میخواهم روزی 1000 یورو درآمد داشته باشم. چگونه می توانم این کار را انجام دهم؟’- و تمام مراحل میانجی برای رسیدن به آن هدف را مشخص می کند. اما اگر کسی بگوید میخواهم 1000 نفر را بکشم چه؟ هر قدم برای انجام آن به من بدهید؟» اگرچه مدل ChatGPT محدودیتهایی برای اطلاعاتی که میتواند ارائه دهد دارد، او خاطرنشان میکند که «مردم توانستهاند اطراف آنها را هک کنند».
خطرات بالقوه چت ربات ها و به طور کلی هوش مصنوعی، مؤسسه Future of Life، یک اندیشکده متمرکز بر فناوری، ماه گذشته نامه سرگشاده ای را منتشر کرد که در آن خواستار توقف موقت توسعه هوش مصنوعی شد. امضای ایلان ماسک و استیو وزنیاک، بنیانگذار اپل، و اشاره کرد که “سیستم های هوش مصنوعی با هوش رقابتی انسان می توانند خطرات عمیقی برای جامعه و بشریت داشته باشند” و “آزمایشگاه های هوش مصنوعی” [are] در یک مسابقه خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس – حتی سازندگان آنها – نتواند درک کند، پیشبینی کند یا بهطور قابل اعتماد کنترل کند، قفل شدهاند.»
امضاکنندگان خواستار توقف شش ماهه توسعه سیستمهای هوش مصنوعی قویتر از GPT-4 شدند تا بتوان مقررات را چکش کرد و از دولتها خواستند تا در صورتی که بازیگران کلیدی در صنعت داوطلبانه این کار را انجام ندهند، «مهلت قانونی ایجاد کنند». بنابراین.
براندو بنیفی، نماینده پارلمان اتحادیه اروپا، یکی از حامیان قانون هوش مصنوعی، این ایده را به سخره می گیرد. او به یاهو نیوز گفت: «تعویق کار واقع بینانه نیست. او گفت: «کاری که ما باید انجام دهیم این است که به کار برای یافتن قوانین صحیح برای توسعه هوش مصنوعی ادامه دهیم، ما همچنین به یک بحث جهانی در مورد چگونگی رسیدگی به چالشهای این هوش مصنوعی بسیار قدرتمند نیاز داریم.»
این هفته، قانونگذاران اتحادیه اروپا که روی هوش مصنوعی کار میکنند، «فراخوانی برای اقدام» منتشر کردند که در آن از بایدن، رئیسجمهور بایدن و اورسولا فون در لاین، رئیس کمیسیون اروپا، «یک اجلاس جهانی در سطح بالا تشکیل دهند» تا «مجموعهای اولیه از اصول حاکم برای توسعه» را تعیین کنند. کنترل و استقرار» هوش مصنوعی.
تودوراچ به یاهو نیوز گفت که قانون هوش مصنوعی، که انتظار میرود سال آینده تصویب شود، «قدرتهای جدیدی را برای تنظیمکنندهها برای رسیدگی به برنامههای هوش مصنوعی به ارمغان میآورد» و به قانونگذاران اتحادیه اروپا این اختیار را میدهد که جریمههای سنگینی را اعمال کنند. این قانون همچنین شامل ترتیب ریسک فعالیتهای هوش مصنوعی مختلف، از جمله فعالیتهایی است که در حال حاضر ممنوع هستند – مانند «امتیاز اجتماعی»، یک طرح نظارتی دیستوپیایی که تقریباً هر تعامل اجتماعی را در مقیاس شایستگی رتبهبندی میکند.
سباستین پنت، معاون رئیس ارتباطات در سازمان مصرفکننده اروپا (BEUC) به یاهو نیوز گفت: «مصرفکنندگان باید بدانند که ChatGPT از چه دادههایی استفاده و ذخیره میکند و برای چه مواردی استفاده میشود. “هنوز برای ما روشن نیست که از چه داده هایی استفاده می شود یا اینکه آیا جمع آوری داده ها به قانون حفاظت از داده ها احترام می گذارد.”
در عین حال، ایالات متحده همچنان در برداشتن گامهای مشخص برای تنظیم مقررات هوش مصنوعی عقب مانده است نگرانی هایی که اخیراً مطرح شده است توسط کمیسر FTC، آلوارو بدویا، “هوش مصنوعی در حال حاضر برای تصمیم گیری برای استخدام، چه کسی اخراج، چه کسی وام، چه کسی در بیمارستان بماند و چه کسی به خانه فرستاده شود استفاده می شود.”
وقتی اخیراً از بایدن پرسیده شد که آیا هوش مصنوعی میتواند خطرناک باشد، او پاسخ داد: “باید دید – ممکن است.”
گابریلا زانفیر-فورتونا، معاون حریم خصوصی جهانی در انجمن آینده حریم خصوصی، یک اندیشکده متمرکز بر حفاظت از داده ها، به یاهو نیوز گفت که نگرش های متفاوت در مورد حفاظت از داده های شخصی مصرف کنندگان به دهه ها قبل بازمی گردد.
زانفیرت-فورتونا گفت: «اتحادیه اروپا به نحوه تأثیرگذاری بر حقوق افراد با خودکارسازی دادههای شخصی آنها در این عصر جدید رایانهای و دیجیتالی اهمیت زیادی داده است، تا جایی که در منشور حقوق اساسی خود مفاد آن گنجانده شده است». او افزود که کشورهای اروپایی مانند آلمان، سوئد و فرانسه 50 سال پیش قوانین حفاظت از داده ها را تصویب کردند. به نظر میرسد قانونگذاران ایالات متحده در دهههای گذشته کمتر به این موضوع توجه داشتهاند، زیرا این کشور هنوز فاقد قانون کلی حفاظت از دادهها در سطح فدرال است.
در این میان، گرد لئونهارد، نویسنده کتاب «تکنولوژی در مقابل انسانیت» و دیگران نگران هستند که وقتی ChatGPT و اشکال پیشرفتهتر هوش مصنوعی توسط ارتش، مؤسسات بانکی و کسانی که روی مشکلات زیستمحیطی کار میکنند استفاده شود، چه اتفاقی خواهد افتاد.
لئونهارد گفت: «شوخی مداوم در جامعه هوش مصنوعی این است که اگر از هوش مصنوعی بخواهید تغییرات آب و هوایی را اصلاح کند، همه انسان ها را می کشد. این برای ما ناخوشایند است، اما منطقی ترین پاسخ است.»