جدیدترین اخبار
خواندنی ها » مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید »
تاریخ انتشار: 7/27/2025 9:02:44 PM

مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید

مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید
ظاهرا نباید رازهای مگوی زندگی‌تان را با یک چت‌بات هوش مصنوعی مثل چت جی‌پی‌تی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروف‌ترین مدل هوش مصنوعی مولد جهان نیز بر آن

مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید ظاهرا نباید رازهای مگوی زندگی‌تان را با یک چت‌بات هوش مصنوعی مثل چت جی‌پی‌تی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروف‌ترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد. سم آلتمن، مدیرعامل «اوپن ای‌آی» (OpenAI)، شرکت سازنده چت جی‌پی‌تی (ChatGPT)، این موضوع را این هفته در مصاحبه‌ای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.


ظاهرا نباید رازهای مگوی زندگی‌تان را با یک چت‌بات هوش مصنوعی مثل چت جی‌پی‌تی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروف‌ترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد.

سم آلتمن، مدیرعامل «اوپن ای‌آی» (OpenAI)، شرکت سازنده چت جی‌پی‌تی (ChatGPT)، این موضوع را این هفته در مصاحبه‌ای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.

او تاکید کرد که اگرچه گفت‌وگوهای شما با هوش مصنوعی باید از سطح بالایی از محرمانگی برخوردار باشد، اما در حال حاضر برای این مهم، قانونی وجود ندارد.

در بخشی از این گفت‌وگو، تئو وان گفت که یکی از دلایلی که در استفاده از ابزارهای هوش مصنوعی تردید دارد این است که «نمی‌داند چه کسی قرار است اطلاعات شخصی‌اش را داشته باشد» و آقای آلتمن پاسخ داد: «فکر می‌کنم این نگرانی منطقی است. اینکه قبل از استفاده گسترده از این ابزارها، آدم واقعاً بخواهد از جنبه‌ حقوقی و حریم خصوصی‌‌اش مطمئن بشود.»

در سال‌های اخیر کاربران زیادی، استفاده از چت‌بات‌ها به عنوان درمانگر، پزشک یا مشاور حقوقی را آغاز کرده‌اند و این موضوع برای حریم خصوصی مشکل‌ساز شده است.

هیچ قانون مشخصی برای محرمانگی این مکالمات وجود ندارد و اینکه واقعاً چه اتفاقی برای این داده‌ها می‌افتد، مبهم است. البته مشکلات دیگری هم وجود دارد مثلاً اینکه چت‌بات‌ها ممکن است توصیه‌های خوبی ارائه نکنند.

بر همین اساس آقای آلتمن گفت: «مردم، به خصوص جوان‌ها از این ابزار مثل درمانگر و مربی زندگی استفاده می‌کنند. مثلا می‌گویند من مشکل عاطفی دارم، چه‌کار کنم؟ در حالی که اگر همین حرف‌ها را با یک وکیل یا دکتر بزنید، مکالمات شما تحت حمایت قانون است.»

او افزود: «اگر شما با چت‌جی‌پی‌تی درباره شخصی‌ترین مسائل زندگیتان حرف بزنید و بعد یک دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود آن اطلاعات را فاش کند. به‌نظرم این اوضاع خیلی درهم‌وبرهم است. ما باید همان سطح از حریم خصوصی‌ را برای چت با هوش مصنوعی داشته باشیم که برای صحبت با درمانگر یا وکیل داریم.»

سم آلتمن اعتراف کرد که گفتگوهای شخصی مردم با چت‌جی‌پی‌تی لزوماً محرمانه نیستند، زیرا در حال حاضر هیچ مبنای قانونی برای حفاظت از اطلاعات حساس و شخصی وجود ندارد.

او تاکید کرد که این مساله باید «با فوریت» رسیدگی شود و افزود که سیاست‌گذاران نیز با او هم‌عقیده‌اند.

این نگرانی نیز وجود دارد که وقتی شما از چی‌جی‌پی‌تی یا ابزار مشابهی برای مکالمه درمانی استفاده می‌کنید، ممکن است وقتی شرکت بیمه یا شخص دیگری درباره شما از همان ابزار سؤال می‌پرسد، بخشی از آن داده‌ها افشا شوند.

نگرانی‌های حقوقی درباره محرمانگی تنها دلیلی نیست که به باور کارشناسان، مردم باید از استفاده از چت‌بات‌ها به عنوان درمانگر دوری می‌کنند. یک مطالعه جدید از دانشگاه استنفورد نشان داده که چت‌بات‌های درمانی هوش مصنوعی، اظهار نظرهای نامناسب و نادرستی درباره برخی بیماری‌های روانی دارند.

منبع: یورونیوز



جدیدترین سیاسی