نگرانیها درباره وابستگی عاطفی کاربران به «چت جیپیتی»
شرکت «اوپنایآی» که توسعهدهنده مدل «چت جیپیتی» است، نگرانی خود را از احتمال ایجاد وابستگی کاربران به تعاملات با هوش مصنوعی به جای روابط انسانی ابراز کرده است.
این شرکت که دفتر مرکزی آن در سانفرانسیسکو قرار دارد، در گزارشی اشاره کرده است که گفتگو با هوش مصنوعی به گونهای که فرد با شخص دیگری صحبت میکند، ممکن است کاربران را به اعتماد نادرست به برنامههای هوش مصنوعی سوق دهد.
همچنین، کیفیت بالای صدای ادغام شده در نسخه «GPT-4o» از «چت جیپیتی» ممکن است این تأثیر را تشدید کند.
«اوپنایآی» در این گزارش درباره اقدامات امنیتی که روی نسخه ChatGPT-4o از برنامه هوش مصنوعی خود انجام میدهد، اعلام کرده است که تکنیکهای تشبیه به انسان که شامل اختصاص رفتارها و ویژگیهای انسانی به موجودات غیرانسانی مانند مدلهای هوش مصنوعی است، ممکن است باعث افزایش این خطر شود.
این شرکت هشدار داده است که «این خطر ممکن است به دلیل قابلیتهای صوتی GPT-4o افزایش یابد که تعاملات شبیه به انسان با برنامه را تسهیل میکند.»
«اوپنایآی» همچنین مشاهده کرده است که کاربران به گونهای با هوش مصنوعی صحبت میکنند که به روابط مشترک اشاره دارد، مانند ابراز نارضایتی با صدای بلند در مقابل برنامه هوش مصنوعی.
این شرکت تأکید کرده است که این موارد در نگاه اول ممکن است بیخطر به نظر برسند، اما نیاز به بررسی دقیقتر دارند تا تاثیر بلندمدت این گونه تعاملات معلوم شود.
«اوپنایآی» پیشبینی کرده است که تعامل اجتماعی با هوش مصنوعی ممکن است کاربران را از مهارتها یا تمایل به ارتباط با انسانها بازدارد.
در گزارش این شرکت همچنین آمده است: «تعامل گسترده با برنامه ممکن است بر استانداردهای اجتماعی تأثیر بگذارد؛ به عنوان مثال، مدلهای ما با کاربران با تواضع رفتار میکنند که به آنها اجازه میدهد در هر زمانی مکالمه را قطع کنند و نقش خود را در صحبت کردن بگیرند، این در حالی است که این نوع رفتار در تعاملات انسانی خلاف ادب است، اما در تعامل با هوش مصنوعی مورد انتظار است.»
به گفته «اوپنایآی»، توانایی هوش مصنوعی در بهخاطر سپردن جزئیات در طول مکالمه و انجام وظایف ممکن است باعث شود که مردم بیش از حد به این فناوری متکی شوند.