مدیرعامل شرکت سازنده چتجیپیتی: از رباتهای هوشمصنوعی برای مشاوره حقوقی و روانی استفاده نکنید ظاهرا نباید رازهای مگوی زندگیتان را با یک چتبات هوش مصنوعی مثل چت جیپیتی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروفترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد. سم آلتمن، مدیرعامل «اوپن ایآی» (OpenAI)، شرکت سازنده چت جیپیتی (ChatGPT)، این موضوع را این هفته در مصاحبهای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.
ظاهرا نباید رازهای مگوی زندگیتان را با یک چتبات هوش مصنوعی مثل چت جیپیتی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروفترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد.
سم آلتمن، مدیرعامل «اوپن ایآی» (OpenAI)، شرکت سازنده چت جیپیتی (ChatGPT)، این موضوع را این هفته در مصاحبهای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.
او تاکید کرد که اگرچه گفتوگوهای شما با هوش مصنوعی باید از سطح بالایی از محرمانگی برخوردار باشد، اما در حال حاضر برای این مهم، قانونی وجود ندارد.
در بخشی از این گفتوگو، تئو وان گفت که یکی از دلایلی که در استفاده از ابزارهای هوش مصنوعی تردید دارد این است که «نمیداند چه کسی قرار است اطلاعات شخصیاش را داشته باشد» و آقای آلتمن پاسخ داد: «فکر میکنم این نگرانی منطقی است. اینکه قبل از استفاده گسترده از این ابزارها، آدم واقعاً بخواهد از جنبه حقوقی و حریم خصوصیاش مطمئن بشود.»
در سالهای اخیر کاربران زیادی، استفاده از چتباتها به عنوان درمانگر، پزشک یا مشاور حقوقی را آغاز کردهاند و این موضوع برای حریم خصوصی مشکلساز شده است.
هیچ قانون مشخصی برای محرمانگی این مکالمات وجود ندارد و اینکه واقعاً چه اتفاقی برای این دادهها میافتد، مبهم است. البته مشکلات دیگری هم وجود دارد مثلاً اینکه چتباتها ممکن است توصیههای خوبی ارائه نکنند.
بر همین اساس آقای آلتمن گفت: «مردم، به خصوص جوانها از این ابزار مثل درمانگر و مربی زندگی استفاده میکنند. مثلا میگویند من مشکل عاطفی دارم، چهکار کنم؟ در حالی که اگر همین حرفها را با یک وکیل یا دکتر بزنید، مکالمات شما تحت حمایت قانون است.»
او افزود: «اگر شما با چتجیپیتی درباره شخصیترین مسائل زندگیتان حرف بزنید و بعد یک دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود آن اطلاعات را فاش کند. بهنظرم این اوضاع خیلی درهموبرهم است. ما باید همان سطح از حریم خصوصی را برای چت با هوش مصنوعی داشته باشیم که برای صحبت با درمانگر یا وکیل داریم.»
سم آلتمن اعتراف کرد که گفتگوهای شخصی مردم با چتجیپیتی لزوماً محرمانه نیستند، زیرا در حال حاضر هیچ مبنای قانونی برای حفاظت از اطلاعات حساس و شخصی وجود ندارد.
او تاکید کرد که این مساله باید «با فوریت» رسیدگی شود و افزود که سیاستگذاران نیز با او همعقیدهاند.
این نگرانی نیز وجود دارد که وقتی شما از چیجیپیتی یا ابزار مشابهی برای مکالمه درمانی استفاده میکنید، ممکن است وقتی شرکت بیمه یا شخص دیگری درباره شما از همان ابزار سؤال میپرسد، بخشی از آن دادهها افشا شوند.
نگرانیهای حقوقی درباره محرمانگی تنها دلیلی نیست که به باور کارشناسان، مردم باید از استفاده از چتباتها به عنوان درمانگر دوری میکنند. یک مطالعه جدید از دانشگاه استنفورد نشان داده که چتباتهای درمانی هوش مصنوعی، اظهار نظرهای نامناسب و نادرستی درباره برخی بیماریهای روانی دارند.
منبع: یورونیوز