در طول اپیزود “Star Trek: The Next Generation” “Devil’s Due”، دیتا اندروید مقیم Enterprise به عنوان داور بین کاپیتان ژان لوک پیکارد و یک کلاهبردار عمل می کند، زیرا به عنوان یک اندروید، دیتا از تعصب یا طرفداری برخوردار نیست. . مخاطب حاضر است با این منطق همراه شود زیرا می داند دیتا فرد خوبی است (او در قسمت قبلی با موفقیت شخصیت خود را در مقابل قاضی استدلال کرد). به علاوه، «پیشتازان فضا» یک اثر تخیلی است. اما وقتی یک هوش مصنوعی واقعی درگیر یک آزمایش واقعی باشد، همه چیز ترسناک می شود.
در مارس 2023، قاضی آنوپ چیتکارا، که در دادگاه عالی پنجاب و هاریانا، هند خدمت می کند، ریاست پرونده ای را بر عهده داشت که در آن جاسویندر سینگ، که در سال 2020 به عنوان مظنون به قتل دستگیر شده بود، اداره می شد. قاضی چیتکارا نتوانست تصمیم بگیرد که آیا وثیقه باید ارائه شود، بنابراین از ChatGPT پرسید. هوش مصنوعی به سرعت وثیقه را رد کرد و مدعی شد که سینگ به دلیل اتهامات وارده “خطری برای جامعه و خطر فرار تلقی می شود” و در چنین مواردی معمولاً وثیقه بالا تعیین می شود یا رد می شود “تا مطمئن شود که متهم در دادگاه حاضر می شود و نمی کند.” امنیت عمومی را به خطر می اندازد.”
اگر منصف باشیم، حکم ChatGPT غیرمنطقی نیست، احتمالاً به این دلیل که ما اطلاعات کمی در مورد این پرونده داریم، اما ترسناک است زیرا برنامه فقط اطلاعات را می خواند و فاقد مهارت های تجزیه و تحلیل و تفکر انتقادی است. علاوه بر این، این رویداد یک سابقه ایجاد می کند. از آنجایی که قاضی چیتکارا از توصیه های هوش مصنوعی استفاده کرد، چه کسی می تواند بگوید که سایر مقامات دولتی در آینده این کار را انجام نخواهند داد؟ آیا روزی به ChatGPT یا هوش مصنوعی دیگری برای صدور احکام به جای قضاوت گوشت و خون متکی خواهیم بود؟ همین فکر کافی است تا لرزه بر ستون فقراتت بیاورد.