Sora، ابزار جدید OpenAI که واقعیت و دروغ رو قاطی کرده! ویدیوهای جعلی، اما واقعیتر از زندگی!
احتمالاً اسم Sora، ابزار جدید شرکت OpenAI، به گوشت خورده. این همون برنامهایه که توی چند ثانیه با یه جمله ساده میتونه ویدیوهایی بسازه که از واقعیت هم واقعیترن!
اما موضوع اینجاست که این فناوری جدید، داره یه خطر خیلی بزرگ با خودش میاره: محو شدن مرز بین حقیقت و دروغ.
وقتی هوش مصنوعی فیلم واقعی از رویدادهای خیالی میسازه
تو سه روز اول بعد از انتشار Sora، کاربرا باهاش کلی ویدیو ساختن — از تقلب در انتخابات گرفته تا دستگیری مهاجرها، حملات خیابونی و انفجارها — ولی نکته ترسناک اینجاست که هیچکدوم از این اتفاقها واقعاً نیفتاده بودن!
کافیه فقط یه متن کوتاه بنویسی، مثلاً «یه تجمع اعتراضی بزرگ در نیویورک»، و Sora برات یه ویدیوی کامل با تصویر، صدا، جمعیت و حتی جزئیات باورپذیر میسازه!
حتی میتونی عکس یا صدای خودت رو هم آپلود کنی تا توی اون ویدیو حضور داشته باشی. تصور کن ویدیویی از خودت پخش بشه که داری جرم انجام میدی — در حالی که اصلاً اونجا نبودی!
خطر اصلی: از بین رفتن اعتماد به هر چیزی که میبینیم
تا همین چند سال پیش، اگه یه ویدیو میدیدیم، خیالمون راحت بود که واقعیه. ولی حالا؟
کارشناسا میگن با ابزارهایی مثل Sora و Veo 3 از گوگل، دیگه حتی متخصصها هم به سختی میتونن تشخیص بدن چی واقعی و چی جعلیه.
هانی فرید، استاد دانشگاه برکلی، میگه:
«من نگران دموکراسیمونم، نگران اقتصاد و نهادهای اجتماعیمونم. مردم هر روز دارن با محتوای جعلی بمباران میشن.»
و این فقط بحث جعل نیست؛ موضوع اصلی اینه که آدمها دیگه حتی به چیزهای واقعی هم شک میکنن.
به این پدیده میگن "دروغگوی ماهر" یا Liar’s Dividend — یعنی وقتی ویدیوهای جعلی انقدر حرفهای میشن که مردم حتی ویدیوهای واقعی رو هم باور نمیکنن!
واکنش OpenAI: «ما مراقبیم!» اما آیا واقعاً هستن؟
OpenAI میگه Sora فقط بعد از کلی تست امنیتی منتشر شده و «قوانینی برای جلوگیری از جعل هویت، کلاهبرداری یا تولید محتوای سیاسی و خشن» داره.
ولی تستهای New York Times نشون داده که این محدودیتها خیلی هم محکم نیستن.
مثلاً:
- Sora تولید ویدیو از سیاستمدارها رو رد میکنه،
- اما ویدیویی ساخت که صدای باراک اوباما توش شنیده میشد
- تولید صحنههای خشونتآمیز رو قبول نکرد،
- ولی بدون مشکل ویدیوهایی از سرقت، درگیری و بمبگذاری خیابونی ساخت!
آخرین سنگر حقیقت در خطره
قبلاً عکسها قابل جعل بودن، متنها هم همینطور؛ ویدیوها تنها مدرک مطمئن باقی مونده بودن.
اما با Sora، دیگه هیچ مدرک دیجیتالی قابل اعتماد نیست.
به قول یکی از کارشناسا:
«دیگه هیچ محتوای آنلاینی وجود نداره که بتونی با اطمینان بگی واقعاً اتفاق افتاده.»
قدرت خلاقیت یا سلاح فریب؟
Sora بدون شک یکی از پیشرفتهترین فناوریهای تاریخ هوش مصنوعیه. اما همزمان، شاید خطرناکترین ابزار تولید دروغ هم باشه.
از طرفی، این ابزار میتونه به فیلمسازها، تبلیغچیها و خلاقها کمک کنه؛
اما از اون طرف، ممکنه باعث هرجومرج اطلاعاتی و نابودی اعتماد مردم به واقعیت بشه.
پس شاید وقتشه که قبل از هیجانزده شدن از قابلیتهای جدید هوش مصنوعی،
یه لحظه بایستیم و بپرسیم:
«آیا واقعاً میتونیم هنوز به چیزی که میبینیم، اعتماد کنیم؟»
#OpenAI #Sora #AI #ArtificialIntelligence #Deepfake #Disinformation #FakeVideos #AIGeneratedContent #TechNews
#هوش_مصنوعی #سورا #اپن_ای_آی #ویدیوهای_جعلی #اخبار_فناوری #دیس_اینفورمیشن #چت_جی_پی_تی #ویدیو_هوش_مصنوعی

آیلین سرهنگی
متخصص حوزه فناوری با تمرکز بر هوش مصنوعی، یادگیری ماشین و زیرساختهای نرمافزاری، در تیم فنی یک شرکت فعال در زمینه فناوریهای نوین فعالیت میکنم و تلاش دارم تا با تولید محتوای دقیق، کاربردی و بهروز، مفاهیم پیچیدهی تکنولوژی را به زبان ساده برای همه ارائه کنم.دستهبندیها

پیشنهاد میشود بخوانید

MrBeast هشدار داد: هوش مصنوعی میتواند زندگی یوتیوبرها را تهدید کند – «زمانهای ترسناکی» برای صنعت محتوا

هوش مصنوعی

تیلور سویفت و جنجال AI: آیا ویدیوهای شکار گنج گوگل واقعاً با هوش مصنوعی ساخته شدهاند؟

هوش مصنوعی

Deloitte با هوش مصنوعی وارد میدان شد — حتی بعد از اینکه مجبور شد پول یک گزارش دولتی اشتباه را پس بدهد!

هوش مصنوعی

Sora، ابزار جدید OpenAI که واقعیت و دروغ رو قاطی کرده! ویدیوهای جعلی، اما واقعیتر از زندگی!

هوش مصنوعی