از زمان راه اندازی Chat GPT در پایان نوامبر سال گذشته، مقالات و مقالاتی در مورد احتمالات و خطرات چت بات پیچیده برای آموزش و آموزش و پرورش ده ها سکه شده اند. اما تأثیر آن بر تحقیقات احتمالاً کمتر عمیق نخواهد بود.
در برخی از رشته های علوم اجتماعی، مانند مدیریت اطلاعات، ChatGPT در حال حاضر به عنوان یک نویسنده مشترک عمل می کند. محققان با هیجان از ChatGPT استفاده میکنند تا فرآیند تحقیق را کارآمدتر نشان دهند. به نظر من، با این حال، استفاده از ChatGPT در تحقیقات می تواند حداقل سه پیامد نامطلوب ایجاد کند.
اولین مورد این است که استفاده از فناوری برای گردآوری مرور ادبیات، مهارتهای تحلیلی و تخیل نظری ما را ضعیف میکند. وقتی نقدهای ادبیات خود را می نویسیم، برای درک مطلب می خوانیم: ما به دنبال دانستن بیشتر از قبل از طریق قدرت ذهن خود هستیم. این شامل تمایل برای غلبه بر نابرابری اولیه درک است که می تواند بین خواننده و نویسنده وجود داشته باشد (مانند زمانی که یک دانشجوی دکترا یک تک نگاری را برای آماده شدن برای گزارش سال اول می خواند). و تلاش ما را قادر می سازد تا ارتباطات نظری جدیدی را در کار خود ببینیم و ایجاد کنیم.
منبع پردیس: مهندسی سریع به عنوان مهارت آکادمیک – مدلی برای تعاملات موثر ChatGPT
اما ChatGPT نمی تواند ادبیات را درک کند: فقط می تواند پیش بینی کند که احتمال آماری کلمه بعدی “a” به جای “b” چقدر است. از این رو، بررسیهای ادبیاتی که تولید میکند صرفاً منبعی برای تفکر است که از بهترین تاریخ قبل خود گذشته است، زیرا دادههای آموزشی لزوماً جاری نیستند. به همین دلیل است که برخی از مفسران تولید دانش ChatGPT را بهجای بیرون از آن، «در داخل جعبه» توصیف کردهاند.
توانایی درک ادبیات فعلی و مهار تخیل برای پیوند دادن پدیده های مشاهده شده با توضیحات نظری یا درک برای بهبود عملکرد آینده بسیار مهم است. خطر این است که اتکای بیش از حد به ChatGPT، حوزه ذهنی را از بین میبرد و در مواقعی که به راهحلهایی برای مشکلات بدیع و دشوار نیاز داریم، ما را مجهز نمیکند.
دومین مشکل استفاده از ChatGPT در تحقیقات علوم اجتماعی این است که شیوه نظریه پردازی را تغییر می دهد. این فناوری داده ها را از طریق محاسبات و عقلانیت رسمی پردازش می کند تا از طریق قضاوت و عقلانیت اساسی. بنابراین، وقتی برای نظریهپردازی به کار میرود، این فرض را در بر میگیرد که جهان بر رویهها، قواعد و قوانین رسمی و انتزاعی استوار است که قابل اجرا هستند. این دیدگاهی است که ماکس وبر معتقد بود برای زندگی اجتماعی مضر است.
به عنوان مثال، زمانی که اخلاق انسانی یا هنجارها و شیوه های توسعه یافته اجتماعی برای تنظیم منافع متضاد، زمانی که قضاوت با محاسبه در تصمیم گیری جایگزین می شود، دستخوش تغییرات اساسی می شود، چنین آسیبی ممکن است به وجود بیاید. بنابراین، به نقل از وبر، اخلاق نسبتاً مکانیکی میشود و موقعیتهایی را ایجاد میکند که در آن «تصمیمها بدون توجه به مردم اتخاذ میشوند».
بنابراین، در رویکرد محاسباتی، اخلاق به عنوان یک پدیده جهانی قابل اجرا در نظر گرفته می شود که می تواند از طریق محاسبه بیان شود. در مقابل، شیوهای از نظریهپردازی مبتنی بر قضاوت که به بافت محلی، اجتماعی و تاریخی پدیدهها حساس است، تمایل دارد که ارزشها را در طول زمان مورد مذاکره، مذاکره مجدد یا حتی به چالش بکشد.
این نگرانی با این واقعیت تشدید میشود که ChatGPT به دلیل دادههای آموزشی مغرضانه، انجمنهای تبعیضآمیز مربوط به مسائل جنسی، نژادی، قومیتی و ناتوانی را بازتولید میکند. همانطور که برایان کانتول اسمیت در کتاب سال 2019 خود استدلال کرد وعده هوش مصنوعی: محاسبه و قضاوت، اگر ما “بی جهت تحت تاثیر توانایی محاسبه قرار بگیریم”، این خطر وجود دارد که “انتظارات خود را از فعالیت ذهنی انسان در جهت محاسبه تغییر دهیم”. بحث من این است که این مشاهده در مورد نظریه پردازی به عنوان یک فعالیت ذهنی انسان نیز صدق می کند.
سومین مشکل استفاده از ChatGPT در تحقیقات این است که شرایط را برای یک بازار منصفانه و واقعا رقابتی برای بهترین ایده ها مخدوش می کند. اگرچه از نظر علمی ارزشمند است، اما انتشارات برای پیشرفت و وضعیت شغلی نیز اهمیت دارند. اما دشواری به دست آوردن پست های دائمی وسوسه شدیدی را ایجاد می کند که از کار سخت اندیشیدن و نوشتن که معمولاً برای نوشتن مقاله های خوش ساخت به دنبال لیست طولانی تری از مقالات برای قرار دادن در CV انجام می شود، صرف نظر کنید.
تلاشها برای کاهش نگرانیها با این استدلال که ChatGPT تنها یک «ابزار تحقیقاتی» خواهد بود و نویسندگان انسانی مسئول باقی میمانند، کاملاً تحت تأثیر من قرار نگرفته است. در پایان روز، حتی اگر استفاده از ChatGPT به طور شفاف اعلام شود، به سختی می توان کمک های نسبی انسان و ماشین را به چالش کشید. چند سال پیش، با پشتکار و تلاش برای خواندن برای درک، نویسندگان همکارم و خود من موفق شدیم نامه رد 15 صفحه ای برای یک مقاله را به نامه پذیرش تبدیل کنیم. آن تجربه است مال ماو این یادآوری است که اگر بتوانیم از تلاشی که برای آن انجام شده است قدردانی کنیم، موفقیت تحصیلی پاداش بیشتری دارد.
من متوجه می شوم که نگرانی های من احتمالاً تنها توسط اقلیتی از محققان مشترک است. پذیرش سریع ChatGPT در تحقیقات کاملاً روشن می کند که اینجا برای ماندن است. با این حال، درک این نکته مهم است که این پیشرفت احتمالاً به جای غنیتر کردن مهارتهای نظری و تحلیلی ما در آینده، فقیر میشود: فقط به این واقعیت نگاه کنید که با افزایش استفاده از فناوری، سطح هوش در جمعیت عمومی در حال کاهش است.
خطر این است که ما به عنوان محقق در نهایت توانایی توضیح و درک جهان اجتماعی را از دست بدهیم. چه کسی می خواهد بوقلمونی باشد که به این کریسمس تلخ رای می دهد؟ منو حساب نکن
دیرک لیندبام، استاد ارشد مدیریت و سازمان در دانشکده مدیریت گرنوبل است. این مقاله بر اساس مقاله پیش رو در مجله تحقیق مدیریت.