شنبه / ۱۵ آذر / ۱۴۰۴ Saturday / 6 December / 2025
×
گام تازه انجمن روابط‌عمومی تهران در مسیر آموزش‌های نوین روابط‌عمومی
با برگزاری نخستین دوره آموزشی در دانشکده خبر صورت گرفت؛

گام تازه انجمن روابط‌عمومی تهران در مسیر آموزش‌های نوین روابط‌عمومی

فولاد مبارکه؛ کانون نوآوری و فناوری ایران‌ساخت
هادی نباتی‌نژاد | مدیر روابط عمومی فولاد مبارکه؛

فولاد مبارکه؛ کانون نوآوری و فناوری ایران‌ساخت

انجمن روابط‌عمومی آمریکا (PRSA) در تازه‌ترین به‌روزرسانی خود، نسخه جدید راهنمای اخلاقی استفاده از هوش مصنوعی در روابط‌عمومی را منتشر کرده است.
راهنمای انجمن روابط‌عمومی آمریکا درباره هوش مصنوعی

به گزارش آژانس خبری پی آر؛ این سند با عنوان «وعده‌ها و چالش‌ها: استفاده اخلاقی از هوش مصنوعی در روابط‌عمومی»، مجموعه‌ای کاربردی از اصول، چارچوب‌ها و دستورالعمل‌های اجرایی است که روابط‌عمومی‌ها را در مواجهه با تحولات سریع فناوری یاری می‌کند.

🟦 مهم‌ترین تغییرات نسخه ۲۰۲۵
شفافیت (Transparency):
بخشی مستقل به این موضوع اختصاص یافته است. در آن دستورالعمل‌های مشخصی برای افشای استفاده از هوش مصنوعی در تولید محتوا، طراحی، استخدام، گزارش‌دهی و قراردادها با مثال‌های عملی ارائه شده است.

اقدامات عملی و فوری:
راهنما دیگر صرفاً نظری نیست؛ بلکه فهرستی از گام‌های اجرایی درباره سواد هوش مصنوعی، حفاظت از حریم خصوصی، استفاده مسئولانه و آگاهی از سوگیری‌ها ارائه می‌دهد.

چارچوب حکمرانی و آموزش:
مراحل گام‌به‌گام برای ارزیابی تأمین‌کنندگان خدمات هوش مصنوعی، آموزش تیم‌ها، تشکیل کمیته‌های مشورتی چندرشته‌ای و حفظ نقش نظارتی انسان تدوین شده است.

تحلیل گسترده مقررات:
راهنما علاوه بر قوانین ایالتی و فدرال آمریکا (مانند قانون «حکمرانی مسئولانه هوش مصنوعی تگزاس»)، مقررات بین‌المللی همچون قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) و GDPR را نیز بررسی می‌کند.

تغییر رویکرد اصلی:
دیدگاه کلی از «هوش مصنوعی به‌عنوان ابزار پرخطر» به «سیستمی درهم‌تنیده که نیازمند نظارت اخلاقی مداوم است» تغییر یافته است.

🟩 نقش جدید متخصصان روابط‌عمومی
در این سند، متخصصان روابط‌عمومی صرفاً کاربران ابزارهای هوش مصنوعی نیستند، بلکه حاکمان اخلاقی و راهبردی این فناوری در سازمان‌ها محسوب می‌شوند.
برای نمونه، وقتی مدیرعامل تصمیم به راه‌اندازی چت‌بات هوش مصنوعی می‌گیرد، متخصص روابط‌عمومی باید بپرسد:
آیا این ابزار از نظر سوگیری داده‌ها بررسی شده است؟ چطور باید درباره استفاده از آن اطلاع‌رسانی کنیم؟ و اگر اشتباهی رخ دهد، چه کسی پاسخ‌گوست؟

🟥 خطرات استفاده غیرنظارتی از هوش مصنوعی
راهنما هشدار می‌دهد که استفاده بدون نظارت از هوش مصنوعی می‌تواند به:

انتشار ناخواسته اطلاعات نادرست،

بازتولید سوگیری و تبعیض،

نقض حقوق مالکیت فکری،

افشای داده‌های محرمانه،

و حذف مسئولیت انسانی منجر شود.

نمونه‌هایی چون فیلتر کردن اشتباه متقاضیان استخدام بر اساس داده‌های مغرضانه یا تولید نامه‌های جعلی برای کمپین‌های عمومی، از جمله خطرات واقعی مطرح‌شده در این سند است.

🟨 شفافیت و اطلاع‌رسانی
اصلی‌ترین توصیه PRSA این است:

«در اغلب فعالیت‌های روابط‌عمومی باید درباره استفاده از هوش مصنوعی شفاف بود. هر زمان که محتوا، تصمیم یا تعاملات به‌طور معناداری تحت‌تأثیر هوش مصنوعی باشد، باید افشا شود.»

راهنما طیفی از نمونه‌های اطلاع‌رسانی را ارائه می‌دهد، از جمله درج عبارت ساده‌ی:
«این محتوا با کمک هوش مصنوعی تولید شده است»،
تا توضیحات دقیق‌تر درباره میزان دخالت انسان در فرایند تولید.

🟪 پاسخ به پرسش‌های رایج اخلاقی
بخش پرسش و پاسخ راهنما به دغدغه‌های عملی پاسخ می‌دهد:

آیا استفاده از هوش مصنوعی برای نگارش خبرنامه یا بیانیه مطبوعاتی مجاز است؟
بله، اگر دقت، صحت و بازبینی انسانی رعایت شود.

آیا می‌توان از ابزارهای عمومی برای پروژه‌های مشتری استفاده کرد؟
تنها در صورتی که داده‌های محرمانه ذخیره یا بازاستفاده نشوند.

آیا باید مشتری را از استفاده از هوش مصنوعی مطلع کرد؟
بله، شفافیت اعتماد می‌سازد؛ در تحویل پروژه‌ها یا قراردادها باید به‌وضوح ذکر شود.

🟦 رهبری اخلاقی در پذیرش هوش مصنوعی
در بخش پایانی، راهنما چارچوبی عملی برای هدایت اخلاقی سازمان‌ها در مسیر پذیرش هوش مصنوعی ارائه می‌دهد.
برای مثال، در ارزیابی تأمین‌کنندگان فناوری، متخصص روابط‌عمومی باید درباره نحوه مدیریت داده‌ها، آزمایش سوگیری و میزان نظارت انسانی سؤال کند.
همچنین تأکید می‌شود:

«اگر یک پلتفرم جایگزین قضاوت انسانی می‌شود، نه تقویت‌کننده آن، باید از آن صرف‌نظر کرد.»

راهنما همچنین نسخه‌ای به‌روزشده از کد اخلاقی PRSA را ارائه می‌دهد که شامل نمونه‌های موردی و تحلیل سود–زیان برای تصمیم‌گیری‌های اخلاقی در محیط هوش مصنوعی است.

🟩 چشم‌انداز آینده
PRSA اذعان می‌کند که مسیر اخلاقی هوش مصنوعی هنوز در حال شکل‌گیری است. این انجمن قصد دارد با انتشار راهنماهای تکمیلی درباره مسئولیت‌پذیری، هوش مصنوعی خودکار (Agentic AI)، سوگیری فرهنگی و اثرات زیست‌محیطی، بحث را ادامه دهد.

به گفته نویسنده، امروز نقش متخصصان روابط‌عمومی از مدیریت پیام‌ها فراتر رفته و به طراحی سیستم‌های ارتباطی، تنظیم صدا و ساخت اعتبار سازمانی گسترش یافته است.

🟦 جمع‌بندی
هوش مصنوعی ابزاری است؛ اما روابط‌عمومی‌ها وجدان اخلاقی سازمان هستند.
راهنمای جدید PRSA چارچوبی عملی برای تصمیم‌گیری شفاف، استفاده مسئولانه و حفظ اعتماد عمومی فراهم می‌کند.
پرسش اصلی دیگر «آیا باید از هوش مصنوعی استفاده کنیم؟» نیست، بلکه این است:
چگونه از آن به‌گونه‌ای استفاده کنیم که به حرفه‌ی روابط‌عمومی اعتبار ببخشد، نه آسیب بزند.

این سند به متخصصان روابط‌عمومی اطمینان می‌دهد که می‌توانند با قضاوت اخلاقی، دانش فنی و شفافیت، آینده ارتباطات مبتنی بر هوش مصنوعی را هدایت کنند.

نوشته‌های مشابه
فولاد مبارکه؛ کانون نوآوری و فناوری ایران‌ساخت
هادی نباتی‌نژاد | مدیر روابط عمومی فولاد مبارکه؛

فولاد مبارکه؛ کانون نوآوری و فناوری ایران‌ساخت

۳۴ ستاره روابط عمومی‌ اتاق‌های سراسر کشور را بشناسید 
در نخستین جشنواره برترین‌های روابط عمومی تجاری؛

۳۴ ستاره روابط عمومی‌ اتاق‌های سراسر کشور را بشناسید 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *