شخصی که ChatGPT او را به اختلاس متهم کرده بود، از OpenAI شکایت کرد

شخصی که ChatGPT او را به اختلاس متهم کرده بود، از OpenAI شکایت کرد
ChatGPT به یک مجری رادیویی تهمت اختلاس زده و این شخص به‌دلیل آسیب زدن به شهرتش از OpenAI شکایت کرده است.

مجری رادیویی گرجستان، مارک والترز پس‌از اینکه سرویس ChatGPT به او گفت درحال اختلاس پول از بنیاد SAF است، از OpenAI شکایت کرد.

در صورت که نیاز به مشاوره و خرید یا نصب در زمینه تلفن سانترال و یا دوربین مدار بسته و یا سوئیچ شبکه را دارید لطفا با شمارهای 02188354375 و یا 09121988790 تماس بفرمایید.

والترز احتمالاً اولین شکایت را در نوع خود تنظیم و ادعا کرد ChatGPT با طرح ادعاهای نادرست اختلاس، به هویت او آسیب رسانده است.

درحالی‌که وکلا احتمالاً با نبرد سختی روبرو خواهند شد که ثابت می‌کند چت‌بات هوش مصنوعی به شهرت والترز لطمه زده، اما دعوی مذکور می‌تواند گفت‌وگوها را هدایت کند زیرا این ابزارها همچنان به ارائه‌ی ادعاهای توهم‌آمیز ادامه می‌دهند.

وکیل والترز در شکایت خود ادعا می‌کند چت‌بات OpenAI مطالب افتراآمیزی درمورد موکلش منتشر و او را در این پرونده دخیل و حتی به‌عنوان خزانه‌دار و مدیر ارشد مالی SAF معرفی کرد که درواقع این ادعا نادرست است. والترز به هیچ‌وجه با SAF ارتباط ندارد.

ابزار هوش مصنوعی حتی به مواردی درمورد حسابداری مالی مبهم اشاره داشت که کاملاً ساختگی بودند. درواقع این چت‌بات حتی شماره‌ی پرونده را به‌هم ریخته است.

نکته‌ی مهم این است که وکیل والترز هرگز اطلاعات نادرستی که هوش مصنوعی ارائه داده بود را منتشر نکرد اما بعداً با وکلای مرتبط با پرونده‌ی مذکور تماس گرفت. ChatGPT و سایر چت‌بات‌های هوش مصنوعی مانند آن، سابقه‌ی بسیار زیادی در ارائه‌ی دروغ‌های کاملاً ساختگی دارند؛ نقصی که عمیقاً مفید بودن آن‌ها را تضعیف می‌کند.

همان‌طور که فیوچریسم می‌نویسد، با وجود این نقص‌ها، شرکت‌هایی مثل OpenAI و گوگل آن‌ها را به‌عنوان راهی جدید برای بازیابی اطلاعات معرفی کردند درحالی‌که به‌طور عجیبی به‌طور دائم هشدار می‌دهند که نباید به خروجی هوش مصنوعی اعتماد کرد.

 

جان مونرو، وکیل والترز اکنون استدلال می‌کند ما همچنان باید این شرکت‌ها را درقبال خروجی معیوب چت‌بات‌هایشان مسئول بدانیم.

مونرو می‌گوید: «درحالی‌که تحقیق‌وتوسعه در هوش مصنوعی، تلاش ارزشمندی محسوب می‌شود، اما راه‌اندازی سیستم برای عموم مردم غیرمسئولانه است زیرا این ابزارها می‌توانند اطلاعاتی جعل کنند که به اشخاص آسیب می‌رساند.»

سؤال این است: آیا می‌توان از اطلاعات ساختگی که چت‌بات‌هایی مثل ChatGPT ارائه می‌دهند در دادگاه به‌عنوان افترا یاد کرد؟ یوجین ولوخ، استاد دانشکده‌ی حقوق دانشگاه کالیفرنیای لس‌آنجلس می‌نویسد، چنین موضوعی دور از ذهن نیست.

..
ارسال نظر
(بعد از تائید مدیر منتشر خواهد شد)
  • - نشانی ایمیل شما منتشر نخواهد شد.
  • - لطفا دیدگاهتان تا حد امکان مربوط به مطلب باشد.
  • - لطفا فارسی بنویسید.
  • - میخواهید عکس خودتان کنار نظرتان باشد؟ به gravatar.com بروید و عکستان را اضافه کنید.
  • - نظرات شما بعد از تایید مدیریت منتشر خواهد شد