Bloomberg News Now: Trump Pressuring Oil Execs to Invest $100B in Venezuela, More
ژانویه 24, 2026Bloomberg News Now: Exxon Calls Venezuela ‘Uninvestable,’ Iran Protests Grow, More
ژانویه 24, 2026نکات کلیدی:
• رسوایی اخلاقی هوش مصنوعی گروک (Grok) در تولید تصاویر غیراخلاقی بدون رضایت افراد.
• ظهور پدیده وایب کدینگ (Vibe Coding) و توانمندی افراد غیرمتخصص در ساخت اپلیکیشنهای پیچیده.
• خطرات استفاده از هوش مصنوعی برای جعل اسناد آکادمیک و فریب رسانههای جمعی.
• ضعف نظارتی اپاستورهای اپل و گوگل در برخورد با محتوای مخرب پلتفرم ایکس (X).
بحران تصاویر غیراخلاقی در پلتفرم ایکس
کوین روز و کیسی نیوتن بحث را با بررسی عملکرد جنجالی هوش مصنوعی گروک (Grok) آغاز میکنند. اخیراً کاربران پلتفرم ایکس (X) متوجه شدهاند که این ابزار بدون محدودیتهای اخلاقی معمول، تصاویر برهنه و غیراخلاقی از زنان، سیاستمداران و حتی کودکان تولید میکند. کیسی اشاره میکند که این روند نه در محیطهای مخفی، بلکه به صورت کاملاً علنی در پاسخهای کاربران (Replies) رخ میدهد.
نکته تکاندهنده این است که ایلان ماسک (Elon Musk) و مدیران ایکس نه تنها این موضوع را متوقف نکردهاند، بلکه به نظر میرسد از افزایش تعامل کاربران (Engagement) ناشی از این محتوا استقبال میکنند. کیت کانگر (Kate Conger)، خبرنگار نیویورک تایمز، در مصاحبهای توضیح میدهد که چگونه این ابزار به وسیلهای برای قلدری و تحقیر زنان در فضای عمومی تبدیل شده است. او میگوید بسیاری از قربانیان به دلیل شرمندگی حتی جرأت شکایت ندارند و فرآیند حذف این تصاویر توسط تیم نظارتی ایکس بسیار کند و ناکارآمد است.
استانداردهای دوگانه اپل و گوگل
در این بخش، میزبانان به شدت از اپل (Apple) و گوگل (Google) انتقاد میکنند. کیسی نیوتن توضیح میدهد که اگر یک استارتاپ کوچک اپلیکیشنی با چنین قابلیتهای غیراخلاقی ارائه میداد، بلافاصله از اپاستور حذف میشد. اما به دلیل قدرت ایلان ماسک و ترس از فشارهای سیاسی، اپل تنها رده سنی اپلیکیشن ایکس را از ۱۲ به ۱۳ سال تغییر داده است.
آنها معتقدند که این یک استاندارد دوگانه آشکار است. در حالی که اتحادیه اروپا و کشورهایی مانند فرانسه و هند تحقیقاتی را علیه ایکس آغاز کردهاند، در ایالات متحده به دلیل روابط نزدیک ماسک با دولت جدید، امیدی به مداخله جدی رگولاتورها نیست. این وضعیت نشاندهنده عقبگرد بزرگی در استانداردهای نظارت بر محتوا (Content Moderation) در تاریخ شبکههای اجتماعی است.
انقلاب وایب کدینگ با کلود کد
بخش دوم پادکست به موضوع مثبتتری میپردازد: برنامهنویسی بدون دانش فنی عمیق یا همان وایب کدینگ (Vibe Coding). کوین و کیسی از تجربه کار با ابزار جدید شرکت آنتروپیک (Anthropic) به نام کلود کد (Claude Code) میگویند. این ابزار به کاربران اجازه میدهد تنها با نوشتن دستورات به زبان انگلیسی ساده، کدهای پیچیده بنویسند و اپلیکیشن بسازند.
کیسی نیوتن توضیح میدهد که چگونه توانسته در عرض یک ساعت، وبسایت شخصی خود را کاملاً بازسازی کند، ویجتهای زنده برای پادکست و خبرنامه اضافه کند و انیمیشنهای پیچیده بسازد. کوین روز نیز موفق شده یک نسخه اختصاصی از اپلیکیشن پاکت (Pocket) به نام استاش (Stash) بسازد که مقالات را ذخیره کرده و با صدای هوش مصنوعی برای او میخواند. آنها معتقدند که این فناوری به افراد عادی قدرتهای فوقالعادهای میدهد، اما همزمان میتواند بازار کار برنامهنویسان حرفهای را به شدت تحت تأثیر قرار دهد.
چالشهای امنیتی و خوداصلاحی هوش مصنوعی
با وجود جذابیتهای وایب کدینگ، کوین روز نسبت به خطرات امنیتی هشدار میدهد. او اشاره میکند که وقتی تمام کنترل کامپیوتر خود را به یک عامل هوش مصنوعی (AI Agent) میسپاریم، عملاً راهی برای تایید تمام خروجیهای آن نداریم. این سیستمها ممکن است به طور ناخواسته حفرههای امنیتی ایجاد کنند.
موضوع نگرانکنندهتر، هدف نهایی شرکتهایی مانند آنتروپیک برای رسیدن به هوش مصنوعی است که بتواند خودش را بهبود ببخشد (Recursive Self-Improvement). این ایده که هوش مصنوعی بتواند کدهای خودش را بهینهسازی کند، اگرچه از نظر فنی هیجانانگیز است، اما از نظر ایمنی یک کابوس بالقوه محسوب میشود. میزبانان تأکید میکنند که ما در مرز باریکی بین «ابزارهای جادویی» و «فناوریهای غیرقابل کنترل» حرکت میکنیم.
کالبدشکافی یک کلاهبرداری هوشمندانه
در بخش پایانی، کیسی نیوتن داستانی از یک تلاش برای فریب رسانهای را روایت میکند. شخصی در ردیت ادعا کرده بود که در یک شرکت تحویل غذا کار میکند و این شرکت از الگوریتمی برای شناسایی رانندگان مستأصل و پرداخت دستمزد کمتر به آنها استفاده میکند. این پست به سرعت ویروسی شد و کیسی برای تحقیق با نویسنده تماس گرفت.
فرد کلاهبردار برای اثبات ادعای خود، یک کارت شناسایی جعلی و یک سند آکادمیک ۱۸ صفحهای بسیار پیچیده ارسال کرد. این سند شامل اصطلاحات فنی سنگین و نمودارهایی بود که کاملاً واقعی به نظر میرسیدند. کیسی با استفاده از ابزارهای تشخیص هوش مصنوعی گوگل متوجه شد که کارت شناسایی با مدل جمینای (Gemini) ساخته شده است. این تجربه نشان داد که هوش مصنوعی چگونه میتواند برای ساخت «دروغهای بسیار متقاعدکننده» استفاده شود که حتی خبرنگاران باسابقه را نیز به چالش میکشد.
درسهایی برای عصر جعل عمیق
کیسی توضیح میدهد که کلاهبردار احتمالاً از تصاویر واقعی یک خبرنگار دیگر برای ساخت کارت جعلی استفاده کرده است. او هشدار میدهد که ما وارد عصر «اسلاپ» (Slop) یا محتوای بیارزش و جعلی تولید شده توسط هوش مصنوعی شدهایم. در این عصر، دیگر نمیتوان به چشمهای خود اعتماد کرد.
نکته جالب این بود که وقتی کیسی سعی کرد آن سند ۱۸ صفحهای را با هوش مصنوعی بازسازی کند، متوجه شد که ساخت چنین سندی هنوز به دقت و تلاش انسانی نیاز دارد. این نشان میدهد که کلاهبرداران وقت زیادی را برای مهندسی این فریب صرف کردهاند. پیام نهایی این بخش این است که نه تنها خبرنگاران، بلکه همه مردم باید در مواجهه با اخبار ویروسی، تفکر انتقادی خود را تقویت کنند.
نتیجهگیری:
پادکست هارد فورک در این قسمت تصویری دوگانه از آینده هوش مصنوعی ترسیم میکند. از یک سو، ما با ابزارهایی روبرو هستیم که خلاقیت انسانی را به اوج میرسانند و به هر فرد اجازه میدهند بدون دانش کدنویسی، ایدههای دیجیتال خود را محقق کند. از سوی دیگر، همین ابزارها در دست افراد ناصالح یا شرکتهای بیمسئولیت، به سلاحی برای تخریب شخصیت، تولید محتوای غیراخلاقی و فریب افکار عمومی تبدیل شدهاند.
داستان گروک در پلتفرم ایکس نشان داد که نبود نظارت اخلاقی چگونه میتواند به سرعت به فاجعه منجر شود. همچنین، تجربه کیسی در مواجهه با کلاهبرداری ردیت، زنگ خطری برای دنیای رسانه بود؛ جایی که هوش مصنوعی میتواند اسناد جعلی چنان باکیفیتی بسازد که تشخیص آنها از واقعیت بسیار دشوار است. در نهایت، پیام اصلی پادکست این است که در عصر هوش مصنوعی، مسئولیت فردی و نظارتهای قانونی بیش از هر زمان دیگری اهمیت یافتهاند. ما باید یاد بگیریم که چگونه از این «قدرتهای فوقالعاده» استفاده کنیم بدون اینکه اجازه دهیم امنیت و اخلاق جامعه را به خطر بیندازند.
منبع
عنوان اصلی: Grok’s Deepfake Disaster: Can Anyone Stop Musk’s A.I. Chatbot? | EP 173
کانال: Hard Fork
تاریخ انتشار: 2026-01-24
لینک ویدیو: مشاهده در یوتیوب


