آیا چت جیپیتی رسانههای ایرانی را تسخیر میکند؟
استفاده از هوش مصنوعی در رسانههای ایران به یکی از ابزارهای پر استفاده برای خبرنگاران و روزنامهنگاران تبدیل شده است.

استفاده از هوش مصنوعی و به ویژه چت جیپیتی این روزها به یکی ابزارهای مورد استفاده در مشاغل گوناگون تبدیل شده است؛ابزاری که استفاده از آن در عین ایجاد مزیت رقابتی، نگرانیهایی را نیز به دنبال دارد. رسانه و روزنامهمگاران نیز از این قاعده مستثنی نیستند. این روزها با فراگیر شدن استفاده از این هوش مصنوعی، بسیاری از خبرنگاران شاغل در رسانههای ایرانی و حتی روابطعمومیهای شرکت خصوصی و دولتی، به بهرهگیری وسیع از این فناوری روی آوردهاند و اطلاعات تولیدشده توسط آن را در گزارشهای خود به کار میگیرند.
از عدم انسجام در گزارشها تا اعمال ممنوعیت برای استفاده
تحلیل گزارشهای منتشرشده دو نکته مهم را آشکار میکند. نخست، برخی خبرنگارانی که تا مدتی پیش قادر به نگارش گزارشهای دقیق نبودند و آثارشان با مشکلاتی همچون ضعف در ویرایش، غلطهای املایی و عدم انسجام روبهرو بود، اکنون گزارشهایی تهیه میکنند که گویی توسط یک روزنامهنگار باتجربه نوشته شده است. دوم سرعت آنها در تهیه گزارش است. افرادی که برای نوشتن یک گزارش ساده، نیازمند زمانی طولانی بودند، الان در کمترین زمان ممکن، دو یه سه گزارش مینویسند؛ این در حالی است که وقتی گزارش آنها را میخوانید متوجه نکتهها و اطلاعات و اشتباهات ریزی میشوید که خبرنگار از تصحیح آنها غفلت کرده است.
استفاده از این شیوه پیامدهای متعددی به همراه دارد. تا جایی که برخی رسانههای معتبر جهانی نیز محدودیتهای رسمی برای استفاده خبرنگاران از چت جیپیتی در تهیه گزارشهای خبری اعمال کردهاند.این ممنوعیتها عمدتاً با هدف حفظ دقت اطلاعات، جلوگیری از انتشار اخبار نادرست و حفظ استقلال روزنامهنگاری اتخاذ شدهاند.
کدام رسانهها استفاده از هوش مصنوعی را ممنوع کردند؟
در ادامه برخی از رسانههایی را که استفاده از چت جیپیتی را برای خبرنگاران خود محدود یا ممنوع کردهاند را میخوانید:
نیویورک تایمز؛ این روزنامه بهدلیل نگرانیهای مربوط به صحت اطلاعات و حفظ استانداردهای روزنامهنگاری مستقل، استفاده از چت جیپیتی را برای خبرنگاران خود ممنوع کرده است. همچنین، نیویورک تایمز علیه OpenAI شکایتی مطرح کرده و مدعی شده که این شرکت بدون اجازه از محتوای روزنامه برای آموزش مدلهای هوش مصنوعی خود استفاده کرده است.
بیبیسی؛ این رسانه تأکید دارد که هرگونه استفاده از هوش مصنوعی باید تحت نظارت انسانی و مطابق با ارزشهای خدمات عمومی باشد. خبرنگاران بیبیسی اجازه ندارند گزارشهای خبری را مستقیماً با چت جیپیتی تولید کنند، زیرا ممکن است دقت و بیطرفی اخبار را تحت تأثیر قرار دهد.
رویترز؛ این خبرگزاری استفاده از چت جیپیتی را برای تولید گزارشهای خبری بدون نظارت انسانی ممنوع کرده است، زیرا چنین اقدامی ممکن است منجر به انتشار اطلاعات نادرست و کاهش اعتبار روزنامهنگاری مستقل شود.
گاردین؛ این روزنامه بهدلیل چالشهای اخلاقی و خطر سوگیری در هوش مصنوعی، استفاده از چت جیپیتی را برای خبرنگاران خود محدود کرده است. گاردین تأکید دارد که تحقیق مستقل و تحلیل انسانی باید در اولویت قرار گیرد.
واشنگتنپست؛ این روزنامه استفاده از چت جیپیتی را برای تهیه گزارشهای خبری حساس ممنوع کرده است، زیرا معتقد است این فناوری میتواند بر صحت اطلاعات و بیطرفی اخبار تأثیر بگذارد.
اعمال محدودیتها برای جلوگیری از انتشار اخبار گمراهکننده
دلایل متعددی برای اعمال این محدودیتها از سوی رسانههای مطرح و شناخته شده وجود دارد که هرکدام در جایگاه خود قابل بررسی است.
حفظ دقت و صحت اطلاعات یکی از دلایل این رسانهها برای اعمال محدودیت در استفاده از این هوش مصنوعی است؛ در واقع چت جیپیتی ممکن است اطلاعات نادرست یا ناقص تولید کند. همچنین عموما تاریخها را جابهجا بیان میکند و گاه ممکن است در خصوص برخی افراد قصهسراییهای باطلی انجام دهد.
همچنین جلوگیری از انتشار اخبار گمراهکننده نیز یکی دیگر از دلایل اعمال این محدودیتها است.برخی رسانهها نگران هستند که هوش مصنوعی بدون تحقیق مستقل، اطلاعات نادرست را از فرسانههای غیر معتبر برداشته و آنها را منتشر کند.
در استفاده از هوش مصنوعی استقلال روزنامهنگار و هویت خبر نیز زیر سوال میرود. خبرنگاران باید تحقیق و تحلیل انسانی را در اولویت قرار دهند. اگر چه چت جیپیتی به آنها در نوشتن کمک میکند اما رفتهرفته نیروی ذهنی آنها را تنبل میکند تا جاییکه حتی برای نوشتن یک لید ساده هم محتاج هوش مصنوعی میشوند.
سوگیریها و ایجاد مسائل اخلاقی را میتوان مهمترین آسیب هوش مصنوعی دانست؛ چراکه ممکن است سوگیریهای موجود در برخی از دادهها توسط چت جیپیتی بازتولید شود و تعصبات یا اختلافات موجود را در حوزه قومیتی، دینی، تبعیض نژادی و... تقویت کند.
نظر شما