اینجا می آید Chat GPT – از کشاورزی تا مراقبت های بهداشتی، پیشرفت های هوش مصنوعی (AI) در سال های اخیر صنایع مختلف را تغییر داده است. روزنامه نگاری نیز از این قاعده مستثنی نیست. Chat GPT (ترانسفورماتور از پیش آموزش دیده مولد) نمونه بارز فناوری هوش مصنوعی است که پتانسیل تغییر روش انتشار اخبار و اطلاعات را دارد.
من به عنوان یک نویسنده در مورد جدیدترین فناوری تردید داشتم و یک مقاومت سرسخت بودم. با این حال، از آنجایی که در مورد این موضوع می نوشتم، فکر کردم حداقل باید آن را انجام دهم.
افشای کامل: جملات مقدماتی این قطعه با کمک Chat GPT نوشته شده است. خوب یا بد، بقیه مقاله همه من هستم، قول می دهم.
به راحتی می توان فهمید که چرا دانش آموزان، مشاغل و هرکسی که نیاز به استفاده از کلمات دارد، تسلیم آسانی و راحتی آخرین فناوری هوش مصنوعی می شود.
این اولین باری نیست که فناوری جایگزین تلاشهای انسانی بهویژه در زمینههای تحصیلی میشود. Microfiche قادر به گردآوری اطلاعات بسیار بیشتر از مجموعه مجلات و نشریات قدیمی بود. اینترنت جایگزین کاتالوگ های کارت، دایره المعارف ها و روزنامه ها شد. وبسایتهایی مانند BibMe و Bibcitation که مورد علاقههای شخصی من هستند، بهطور خودکار نقلقول تولید میکنند و تولید کتابشناسی و پاورقی را بسیار آسانتر میکنند.
اما این اولین بار در تاریخ است که فناوری فراتر از جمعآوری، طبقهبندی و مرتبسازی دادهها یا افزایش سرعت انجام آن است. هوش مصنوعی به سرعت نیاز به جذب دانش و نتیجه گیری را با آن اطلاعات جایگزین می کند. انجام این کار مستلزم مهارتی است که به عنوان تفکر انتقادی شناخته می شود.
مرز باریکی بین کارهای پیش پا افتاده و کاری وجود دارد که به وجدان نیاز دارد، به ویژه در زمینه ای مانند روزنامه نگاری، جایی که باید ملاحظات اخلاقی بیشتر و بیشتر مورد توجه قرار گیرد.
نمی توانم تصور کنم این نوع هوش مصنوعی ما را احمق نمی کند. من عصبشناس نیستم، اما میدانم که چگونه بر پایهایترین مهارتها، مانند خواندن و نوشتن مسلط شوم، شبکههای عصبی را تقویت میکند.
مدتی است که در این شیب لغزنده زوال شناختی قرار داریم. نقشه های اینترنتی، اگرچه بسیار راحت هستند، اما نیاز به به خاطر سپردن مسیرها را از بین برده اند یا به راننده نیاز دارند تا هوشیار بماند. ماشین های خودران در حال حاضر اینجا هستند. یادآوری دستور غذای مورد علاقه مادربزرگتان فقط یک هنر گمشده است.
در حالی که من از ممنوعیت فناوری دفاع نمی کنم، سرعت پیشرفت ما نگران کننده است.
چالش در آنجا نهفته است. فکر نمیکنم کسی بخواهد به دوران سنگی نقشههای تا شده یا آشپزی روی آتش بازگردد – اگرچه هر دو یا آن گزینهها در حال حاضر بسیار خوب به نظر میرسند – اما چقدر دور است؟
به نظر می رسد همه موافق هستند که باید برای هوش مصنوعی مرزهایی تعیین کرد. اما این مرزها کجا هستند، چگونه آنها را ترسیم کنیم و چه کسی آنها را تعیین می کند؟
جلسه استماع سنا در مورد هوش مصنوعی
اینها سوالاتی است که کمیته فرعی سنا در خصوص حریم خصوصی، فناوری و قانون سعی کرد در این هفته به آنها پاسخ دهد.
سناتور ریچارد بلومنتال، D-Conn، جلسه را با ارائه چالش های هوش مصنوعی افتتاح کرد. ما اغلب دیدهایم که وقتی فناوری از مقررات پیشی میگیرد چه اتفاقی میافتد. بهره برداری لجام گسیخته از داده های شخصی، گسترش اطلاعات نادرست و تعمیق نابرابری های اجتماعی. این آینده ای نیست که ما می خواهیم.»
اگرچه سناتور واقعاً آن چیزها را نگفت. سخنان افتتاحیه او برگرفته از صدایی بود که توسط یک نرم افزار شبیه سازی صدا، با کلماتی که توسط ChatGPT نوشته شده بود.
مدیر عامل Open AI، خالق Chat GPT، Sam Altman، در جلسه استماع شهادت داد و از قضا از مقررات حمایت کرد.
«من فکر میکنم اگر این فناوری اشتباه پیش برود، ممکن است کاملاً اشتباه شود. و ما میخواهیم در این مورد با صدای بلند صحبت کنیم.» آلتمن مدعی شد: «ما می خواهیم با دولت کار کنیم تا از این اتفاق جلوگیری کنیم.
لابی کردن برای مقررات بر روی همان فناوری که شما ایجاد کرده اید ممکن است غیرقابل تصور به نظر برسد، اما آلتمن دقیقاً این کار را انجام می دهد.
او تنها نیست. ایلان ماسک نیز در مورد خطرات مغز متفکر خود هشدار داده است. دکتر جفری هینتون «پدرخوانده هوش مصنوعی» اخیراً گوگل را ترک کرده است تا در مورد خطرات هوش مصنوعی هشدار دهد و خواستار نوعی مقررات جهانی شود. سالها پیش، استیون هاوکینگ ادعا کرد که هوش مصنوعی میتواند بدترین اتفاقی باشد که تا به حال برای بشریت رخ داده است.
آلتمن یک طرح سه نقطه ای برای نظارت دولت ارائه کرد: 1. ایجاد یک سازمان دولتی که مسئول صدور مجوز و اجرای مقررات بر روی مدل های بزرگ هوش مصنوعی است. 2. طراحی مجموعه ای از استانداردهای ایمنی برای مدل های هوش مصنوعی، شامل ارزیابی قابلیت های خطرناک آنها و 3. نیاز به مستقل بودن ممیزی، توسط کارشناسان مستقل، از عملکرد مدل ها در معیارهای مختلف.
معضل فیلسوف
بحث کنونی پیرامون هوش مصنوعی نگرانیهای بیشتری را نسبت به جایگزینی شغل و جایگزینهای اقتصادی مطرح میکند. این به قلب یک سوال اساسی و وجودی برخورد می کند: انسان بودن به چه معناست؟
آیا زندگی چیزی جز سهولت، راحتی و حداکثر کارایی نیست؟ در حالی که فرهنگ فست فود ما چنین پیشرفت هایی را به ارمغان می آورد، اینها فضیلت نیستند. Chat GPT صبر، خوبی، مهربانی یا همدلی را آموزش نمیدهد. و در حالی که به نظر نمی رسد این ویژگی ها در زمینه روزنامه نگاری زیاد باشد، من هنوز معتقدم تا زمانی که انسان ها گزارش می نویسند، امید وجود دارد.
اگرچه همه فریاد می زنند که خبرگزاری ها «فقط حقایق» را بدون نظر گزارش کنند، اما چه دنیای پیش پا افتاده و غم انگیزی بدون انسان ها خواهد بود که داستان بگویند.
Chat GPT میتوانست تاریخچه هوش مصنوعی، مزایای آن برای روزنامهنگاری، چالشهای آن و قوانینی که در نظر گرفته میشوند را به شما بگوید. اما نمی توانست دیدگاه، بینش و، دوست داشتن یا متنفر، بیان منحصر به فرد من از موضوع را ارائه دهد. آیا این برای همه مقالات، به ویژه اخبار سخت ضروری است؟ نه. اما هر چه بیشتر به هوش مصنوعی اجازه دهیم زندگی ما را القا کند، بیشتر شبیه آن می شویم. انسان ها همان چیزی را خلق کرده اند که آنها را نابود می کند.
هوش مصنوعی ممکن است یکی از تنها مسائل دو حزبی امروز باشد. مهم نیست که در کدام سمت راهرو می نشینیم، به نظر می رسد اکثر آنها موافق هستند که ما جهانی را تنها با یک راهرو و بدون طرف نمی خواهیم. دنیای بدون تضاد، چالش و فردیت، دنیایی بدون انسانیت است. و این اصلاً دنیا نیست.