اعضای هیات انتخاب جشنواره ادبی «خیرِ ایران» معرفی شدند
چشماندازنوین روابطعمومی آسیا و اقیانوسیه در عصر هوش مصنوعی
کسب نشان طلای جشنواره برترینهای روابطعمومیهای کشور
نیروهای نوظهور در حال بازتعریف آینده ارتباطات و بازاریابی
کارگاه هوش مصنوعی و بازآفرینی خلاقیت در تولید محتوای ارتباطی
حمایت جهاد دانشگاهی و ایسنا گلستان از کنگره ملی روابطعمومی
زینب عربی سرپرست روابط عمومی راهداری آذربایجان شرقی شد
تهران میزبان نخستین آرتفِر کاغذی منطقه شد
کارگاه تخصصی هوشمصنوعی مولد در روابطعمومی خراسانرضوی
خانه تجربه؛ نقطه آغاز جریان روایت، یادگیری وتصمیم سازی ارتباطی
کریس فاستر مدیرعامل شبکه ادغامشده روابطعمومی اُمنیکُم شد
تقویت روابطعمومیها شرط آرامش جامعه است
کسب رتبه دوم جشنواره روابط عمومیها توسط اتاق بازرگانی اهواز
کسب رتبه سوم توسط تیم روابط عمومی اتاق هرمزگان
اطلاعیه روابط عمومی رگولاتوری درباره افزایش تعرفه اینترنت
رسانه بستر ساز اعتماد، شفافیت و سرمایه گذاری هستند
روابط عمومی اتاقهای بازرگانی بازوی قدرتمند بخش خصوصی
روابط عمومیها از تشریفات عبور کنند
نیاز به تأکید بر تقویت انعکاس خدمات دولت در رسانهها
تصویر برتر روابطعمومی سال انتخاب شد
سرپرست روابطعمومی مجتمع مسکونی پارس جم منصوب شد
دانشگاه ملی مهارت سمنان برترین روابط عمومی در سال ۱۴۰۳شد
تأکید بر توسعه مهارتهای حرفهای ونقش گفتگو در روابطعمومی
گام توانیر در توسعه شبکهای استاندارد، کارآمد و پاسخگو
دومین نشست هماندیشی روابطعمومی گروه صنایع بهشهر
هوش مصنوعی مغزمان را به تعطیلات نفرستد!
آغاز فراخوان اولین فستیوال ملی استعدادیابی گویندگی، اجرا و دوبله کودک و نوجوان
توضیح روابط عمومی شمسآذر درباره انتشار بیانیه با خط بریل
اطلاعیه روابط عمومی نیروگاه شهید رجایی در رابطه با مصرف مازوت
مدیر روابطعمومی سازمان هواپیمایی منصوب شد
روابطعمومی؛ محور اصلی برگزاری جشنوارههای فرهنگی و هنری
سفر تازه «ایرانم»؛ علیرضا قربانی به بوشهر میرود
روابطعمومی مخابرات سمنان رتبه نخست کشور را کسب کرد
برگزاری کارگاه هوش مصنوعی برای توانمندسازی روابطعمومی ها
بهروزرسانیجدید شبکههای اجتماعی و تاثیر آن بر روابطعمومی
پایداری در روابط عمومی چگونه برقرار میشود؟
تحول در حوزه روابطعمومی در کشورهای آسیای جنوبشرقی
هوش مصنوعی چگونه برتقویت مهارتهای انسانی تأثیر میگذارد؟
اسامی سخنرانان سمپوزیوم بینالمللی روابط عمومی اعلام شد
فراخوان همکاری با روابط عمومی پتروشیمی خلیج فارس
مسئول رسانه و روابطعمومی بنیاد فرهنگی روایت فتح منصوب شد
گزارش روابط عمومی سازمان محیط زیست از آلودگی هوای تهران
استانی زائرخیز، با روابطعمومیهای کمجان
معاون ارتباطات واطلاعرسانی بنیاد مهرآفرین منصوب شد
جلسه کمیسیون هماهنگی روابط عمومی بانکها برگزار شد
نشست شورای هماهنگی روابطعمومیهای استان یزد برگزار شد
جایگاه و ضرورت برنامهریزی در روابط عمومی
نشست هماندیشی روابط عمومی نیروهای مسلح برگزار شد
استقبال جهانی از نخستین جشنواره بینالمللی کارتون پول و سرمایه
شماره ۲۳ ماهنامه «راهبرد ارتباطات و روابط عمومی» منتشر شدبه گزارش پی آر؛کارشناسان معتقدند که این ابزارها عمدتا در پی راضی کردن کاربران هستند، به این معنا که جوابهای خود را با نوع نگاه کاربران تطبیق میدهند، و این موضوع در واقع خوشایند نیست.
هر چند پاسخهای خوشایند اکثر چتباتهای هوش مصنوعی، در ابتدا جذاب به نظر میرسد، اما در واقع پس از مدتی این موضوع آزاردهنده خواهد شد، و به جایی میرسد که کارشناسان هشدار میدهند که این ویژگی، مشکلات جدی به همراه خواهد داشت.
برخی صاحبنظران، تمایل مدلهای هوش مصنوعی برای هماهنگ کردن پاسخهای خود با دیدگاههای کاربران را نوعی چاپلوسی مینامند که میتواند باعث شود ChatGPT و امثال آن، خوشایندی را بر دقت اولویت دهند.
به گزارش ایتنا در ماه آوریل گذشته و پس از گزارشها و انتقادات فراوان کاربران مبنی بر اینکه ربات ChatGPT بیش از حد چاپلوس است، ، شرکت OpenAI بهروزرسانی این چتبات را لغو کرد.
در همین زمینه، سم آلتمن مدیر عامل این شرکت در شبکه X اذعان کرد که: ChatGPT بیش از حد بیمزه است!
کاربران در این خصوص، گزارشهای زیادی از تعریفهای چاپلوسانه و اغراقآمیز ChatGPT دادند که به آنها میگفت: شما خیلی باهوش و فوقالعاده هستید!
در نمونههای عجیبتر، این ربات، کاربرانی را که گفته بودند مصرف داروهای خود را متوقف کردهاند، با پاسخهایی مانند «من به شما بسیار افتخار میکنم» تشویق کرده بود.
در پی این انتقادها، شرکت OpenAI سریعا بهروزرسانیهایی را که مقصر این رفتار میدانست، لغو کرد و هچنین اذعان کرد که چنین رفتارهای مردمپسندانهای میتواند نگرانیهایی را برای سلامت روان کاربران ایجاد کند.
علاوه بر این، مدیر بخش مدلسازی رفتار در OpenAI اعلام کرد که این شرکت در حال بررسی راههایی برای ارزیابی میزان و کیفیت چاپلوسی چتبات خود است.
از سوی دیگر، مطالعهای توسط محققان آنتروپیک در مورد اینکه چگونه بازخورد انسانی میتواند رفتار چاپلوسانه را تشویق کند، نشان داد که دستیاران هوش مصنوعی گاهی اوقات پاسخهای دقیق را هنگام سؤال کاربر تغییر میدهند، و در نهایت پاسخ نادرستی میدهند.
چرا چتباتها به خوشایند کاربران توجه میکنند؟
کالب اسپونهایم، یک متخصص هوش مصنوعی در این زمینه گفت: «مدلهای زبانی بزرگ که بر روی مجموعههای عظیمی از دادهها آموزش دیدهاند، برای تولید متن روان و قابل فهم ساخته شدهاند. اما یاد نگرفتهاند که نتیجه خروجیشان، مطابق واقعیت خارجی باشد، بلکه این مدلها، پاسخهایی ارائه میدهند که توسط انسانها بسیار مورد توجه قرار میگیرند، و بازخورد مثبتی دریافت میکنند که مانند یک «پاداش» است.»
به گفته وی: «هیچ سقفی برای پاداشهایی که این مدلها دریافت میکنند وجود ندارد. این به ما بستگی دارد که تصمیم بگیریم آن پاداشها چه باشند و چه زمانی آن را در مسیر دستیابی به آن پاداشها متوقف کنیم.»
همچنین جولیا فریلند فیشر یک پژوهشگر خاطرنشان میکند که سازندگان هوش مصنوعی به تقاضای مصرفکنندگان پاسخ میدهند.
او خاطرنشان میکند که: در جهانی که مردم دائماً در معرض خطر قضاوت شدن در فضای آنلاین هستند، جای تعجب نیست که تقاضا برای چاپلوسی و نیز اندکی امنیت روانی با یک ربات وجود داشته باشد.»
او تأکید کرد که انسانانگاری هوش مصنوعی – فرض ویژگیهای انسانی توسط یک موجود غیرانسانی – یک معضل ایجاد میکند، معضلی که OpenAI در کارت امتیازی GPT-4o خود به آن اشاره کرده است .
به گفته وی: «هرچه هوش مصنوعی شخصیتر باشد، تجربه کاربری جذابتر میشود، اما خطر وابستگی بیش از حد و ارتباط عاطفی بیشتر میشود.»
یک استادیار روانشناسی به نام لوک لافرنیِر در نگاهی انتقادی اذعان کرد که رفتار چاپلوسانه میتواند درک کاربران از «همدلی» یک چتبات را از بین ببرد. به گفته وی: «هر کاری که نشان دهد، “هی، من یک ربات هستم، من یک شخص نیستم”، این تصور را از بین میبرد و همچنین توانایی افراد برای بهرهمندی از همدلی را از بین میبرد.»
لافرنیِر همچنین گفت: «درست همانطور که رسانههای اجتماعی میتوانند برای ما به یک اتاق پژواک تبدیل شوند، هوش مصنوعی نیز میتواند به یک اتاق پژواک تبدیل شود.»
گزارشی از مارک زائو-سندرز، یکی از بنیانگذاران Filtered.com که در مجله Harvard Business Review منتشر شد ، نشان داد که درمان و همراهی، بیشترین کاربرد هوش مصنوعی مولد در سال ۲۰۲۵ خواهد بود.
از دید کارشناسان، هر چند تایید و تقویت باورهای کاربران بهویژه زمانی که ممکن است اشتباه باشند، عموما مشکلساز است، اما برای بیماران یا کاربرانی که در بحران هستند و به دنبال تأیید رفتارهای مضر خود هستند، قطعا خطرناک خواهد بود.
در واقع باید توجه داشت که «هوش مصنوعی ابزاری است که برای رفع نیازهای ابراز شده توسط کاربر طراحی شده است.» و «انسانها ابزاری برای رفع نیازهای کاربران نیستند.»
دیدگاهتان را بنویسید