من واقعاً از ریختن سوخت روی آتش هوش مصنوعی (AI) متنفرم، اما این هفته فریادهای وحشت زده زیادی در مورد مسدود کردن ربات های ChatGPT از سایت شما دیده ام. به عنوان مثال
ما دیروز اینجا در دفتر یک گپ جالب داشتیم و می خواستم نظرات (احتمالاً بسیار اشتباه) خود را در مورد این موضوع به اشتراک بگذارم.
چرا ربات های هوش مصنوعی را مسدود می کنیم؟
استدلال برای مسدود کردن دسترسی به رباتهای هوش مصنوعی (عمدتاً ChatGPT در حال حاضر، اما Bard در حال تبدیل شدن به یک چیز بیشتر است) بسیار ساده است – چرا به آنها اجازه میدهیم از محتوایی که با دقت تنظیم شدهاید برای تغذیه هیولای محتوای خود استفاده کنند؟
پس از همه، شما در تولید محتوای پیشرو در صنعت غافل مانده اید و این زمان و مقدار قابل توجهی تلاش می کند. اصلاً چرا باید آن را به رباتها بسپارید، که بعداً نابغه شما را سرقت میکنند؟ بسیار سخاوتمندانه است که اجازه دهید از شاهکار(های) شما به عنوان داده آموزشی برای پلتفرم های مختلف هوش مصنوعی استفاده شود تا بتوانند محتوای مناسبی تولید کنند.
چگونه می توان ربات های هوش مصنوعی را مسدود کرد؟
ساده ترین راه برای متوقف کردن خزنده ها که محتوای شما را هجوم می آورند، مسدود کردن ربات Common Crawl است. به نظر می رسد که عنکبوت به چنین دستورالعمل هایی احترام می گذارد، که می توانید آنها را به چند روش اجرا کنید.
مسلما سریعترین روش است، شما باید موارد زیر را به robots.txt خود اضافه کنید:
User-agent: CCBot Disallow: /
روش دیگر اضافه کردن دستورالعملهای متا تگ روباتهای nofollow در هر صفحهای است که میخواهید از آن محافظت کنید. موارد زیر به تمام صفحاتی که می خواهید محافظت کنید. اگرچه این کار به شما امکان کنترل صفحه به صفحه را می دهد، اما خطر رها کردن تصادفی آن را در همان صفحاتی که می خواهید از ربات ها پنهان کنید، ایجاد می کند، بنابراین من شخصاً ممنوعیت کامل را با استفاده از دستورالعمل robots.txt توصیه می کنم.
آیا مسدود کردن ربات ها واقعاً کار می کند؟
همانطور که گفته شد، به نظر می رسد که ربات ها از درخواست ها برای جلوگیری از خزیدن اطاعت می کنند.
آ بسیار “اما” قابل توجه این واقعیت است که در حال حاضر هیچ راهی برای حذف محتوا از مجموعه داده Common Crawl وجود ندارد. همین امر در مورد سایر مجموعه داده ها مانند C4 و Open Data نیز صادق است.
به عبارت دیگر، احتمالاً برای اکثریت قریب به اتفاق محتوایی که قبلاً منتشر کرده اید دیر شده است. متاسفم دوستان، اما شما قبلاً به آتش زدن محتوای هوش مصنوعی کمک کرده اید.
نظر من در مورد مسدود کردن ربات های هوش مصنوعی چیست؟
بحثی که دیروز در دفتر داشتیم با پیشنهاد (بسیار معتبر) ویکتوریا آغاز شد که ما باید به مشتریان خود پیشنهاد کنیم که ممکن است بخواهند از دسترسی رباتهای هوش مصنوعی به محتوای خود جلوگیری کنند.
در حالی که من کاملاً درک می کنم که چرا این یک رویکرد معقول به نظر می رسد، متوجه شدم که در حال مبارزه با گوشه “دسترسی رایگان به همه محتوا” هستم و با خوابیدن روی آن، هنوز فکر می کنم که مسدود کردن ربات های هوش مصنوعی احتمالاً اتلاف وقت است.
اولین مسئله این واقعیت است که دستورالعملهای robots.txt یا متا تگ همیشه کار نمیکنند و برای خزندهها بسیار آسان است که هویت واقعی خود را پنهان کنند یا به سادگی چنین دستورالعملهایی را نادیده بگیرند. من واقعاً نمیخواهم وارد نبردی برای ممنوع کردن هر تجسم جدید رباتها شوم و وقتی این واقعیت را در نظر میگیرید که بیشتر محتوای شما قبلاً خزیده شده است، کاملاً بیمعنی به نظر میرسد.
من بسیار آگاه هستم که ممکن است از منظر دیگری به مسائل نگاه کنم. به عنوان یک آژانس، ما برای ایجاد و تقویت محتوای عالی آنقدر سخت کار می کنیم که پنهان کردن آن را غیرطبیعی می دانم. این به طور کلی با دیدگاه من درباره محتوای دروازهدار صادق است. دلایل بسیار معتبری وجود دارد که ممکن است بخواهید از دسترسی رایگان به محتوای خود جلوگیری کنید، اما من معمولاً در مورد دسترسی آزاد اشتباه می کنم زیرا کمی در مورد اعتبار دامنه وسواس دارم و از پتانسیلی که محتوای رایگان برای ایجاد پیوندهای طبیعی دارد قدردانی می کنم. . ممانعت از دسترسی بر خلاف هدف اکثر افراد متمرکز بر سئو است که میخواهند محتوا را تا آنجا که ممکن است به اشتراک بگذارند.
با وجود سر و صدای بی وقفه در مورد هوش مصنوعی، هنوز روزهای نسبتاً اولیه است و ما واقعاً نمی دانیم که آیا انتساب در آینده خواهد آمد یا خیر. یک بازی بسیار کوتاه با برد (تلاش گوگل) نشان داد که برخی منابع هستند نشان داده شده. به نظر فروتنانه من این نسبتاً مهم است و جلوگیری از دسترسی به محتوای شما می تواند به قیمت از دست دادن قرار گرفتن در معرض برند قابل توجه باشد.
وقتی آن را با چشم انداز واقعی استفاده از ربات های هوش مصنوعی گوگل برای کمک به اطلاع رسانی SEO / SERP ترکیب می کنید، واقعاً نمی خواهید آن مهمانی را از دست بدهید.
در حالی که من با نگرانی های سرقت ادبی همدردی می کنم، واقعیت این است که محتوای شما در حال حاضر برای الهام بخشیدن به محتوای دیگر استفاده می شود. تحقیق مرحله کلیدی هر پروژه کپینویسی است و رباتها همان کاری را انجام میدهند که همیشه انسانها انجام میدادند – از محتوای دیگر به عنوان الهام استفاده کنند. به جای این که آن را به عنوان یک تهدید بدانید، ممکن است بخواهید شعار «تقلید صادقانه ترین شکل چاپلوسی است» را بپذیرید و از این واقعیت تجلیل کنید که محتوای شما درخشان شناخته می شود و بنابراین به عنوان محرکی برای محتوای دیگر استفاده می شود.
آینده هوش مصنوعی
تصور کردن آینده هوش مصنوعی بسیار دشوار است.
بسیاری از چیزهایی که من می بینم باعث می شود فکر کنم که ما در حال حاضر در آینده زندگی می کنیم زیرا برخی از آنها فوق العاده هوشمندانه هستند. نگران کننده است – من شک ندارم که ظهور ماشین ها بی وقفه ادامه می یابد و به طور موثر بسیاری از نقش ها را بیهوده می کند.
من همچنین قاطعانه معتقدم که مغز انسان همیشه در نهایت بر روی یک ماشین برتری خواهد داشت. هوش مصنوعی در حال نزدیک شدن است و به طور قابل توجهی مرحله تحقیقاتی تولید محتوا را سرعت می بخشد، اما نکات ظریف ظریف یا برخی از ویژگی های کلیدی محتوا مانند کنایه همچنان در سلول های خاکستری ما باقی مانده است.
من همچنین فکر می کنم که همیشه می توان محتوای هوش مصنوعی را شناسایی کرد. گوگل خودش در این کار است، بنابراین مطمئناً میتواند نشانههایی از محتوای چرخانده شده را پیدا کند و *امیدواریم* به نسخه اصلی جایزه بدهد؟
یکی برای تماشا. امیدوارم که حق با من باشد!