دلگیرم از خود با تو نجوا می کنم دریا این سفره ی دل پیش تو وا می کنم

پس از فتوشاب تصویر وکلیپ "فتوشاپ صدا"در راه است

تاریخ:پنجشنبه 15 تیر 1396-10:05 ق.ظ


 هوش مصنوعی  جعل همه چیز را آسان کرده است
Image result for AI Will Make Forging Anything Entirely Too Easy
نویسنده : گرگ آلن؛  دستیار مرکز امنیت جدید آمریکا
 هوش مصنوعی  جعل همه چیز را آسان کرده است
AI Will Make Forging Anything Entirely Too Easy. Greg Allen, Wired July 3, 2017
وقتی که جیمز کامی در هشتم ماه ژوئن گذشته برابر کمیته اطلاعات در مجلس سنای آمریکا برای ادای توضیحات حاضر شده بود، با عصبانیت گفت: "اوه خدای من، امیدوارم که نواری ویدیوئی وجود داشته باشد "  آنچه که او گفت،نشان دهنده  تمایل  آشنا ی کامی به شرایطی است که افراد متهم به دروغ زمانی که با اتهامات جدی خطرناک مواجه هستند به آن متوسل می شوند. مدیر سابق اف بی آی  با توجه به نقش ضبط صوتی و تصویری در جامعه ما به عنوان یک داور برای فصل نهایی در حقایق  چشم امید دوخته بود. در واقع، همیشه شایعات اعتبار خود را دربرابرآنچه در نوار نشان داده شده است از دست می دهند..

در زمان ما، زمانی که مردم یک ویدیو را که نشان دهنده  دریافت رشوه بوسیله یک سیاستمدار است، یا یک سرباز در روند ارتکاب جرم و جنایت جنگی دست دارد، و یا یک رسوایی مشهور جنسی مشاهده می کنند، آنها  به فرض اینکه آنچه تصویر برداری شده  البته بشرط کیفیت خاص  وبدون اصلاح  آنرا می پذیرند. وفکرمی کنند
تمام که آنچه تماشا کرده اند،جهانیست که از حقایق روشن شده است، درحالیکه  ممکن است همین موارد توسط فن آوری هوش مصنوعی در معرض وتهدید دستکاری قرار گرفته است..
لازم به ذکر است که ما  با آنچه که در آینده در تجزیه و تحلیل و داده های کلان  نیازمندیم می توانیم بدون مشکلاتی ازاین دست دنبال کنیم البته بشرط  یادگیری  مکانیزمی خودکار که ما را قادر به نظارت بر واقعیت و تشخیص حقیقت نماید. از سوی دیگر، توجه بسیار کم  به توانایی این فن آوری به ما کمک کرده تا به دروغ ها بها بدهیم. در این میان،  قابلیت ساخت هدف(محتوای کلیپ های جعلی  صوتی و تصویری ) به لطف پیشرفت شگفت آور  هوش مصنوعی امکان پذیر شده است..

از این منظر، مردم  با داده های صوتی و تصویری  جعلی همانند یک محتوای واقعی به طور مداوم روبرو خواهند شد. بنابراین، همه مبارزه خواهند کرد
تا درمیان غرق شدن در یک تصویر مارپیچ، صوتی، تصویری، واقعی و جعلی مستند.تا آنچه را که آنها شایسته اعتمادو باور است انتخاب کنند، در این راستا، "لیریبرد"شرکت فن آوری یادگیری عمیق در شهر مونترال در حال کار است، که اجازه  دهد تا براساس توسعه ی فن آوری اختصاصی مرتبط  هر کسی بتواند   به تولید سخنرانی شبه واقعی شگفت آوری بر اساس صدای هر فرد موردنظر بپردازد..

در واقع، آزمایشهای این شرکت  نشان می دهدکه  امکان تولید صدا  با استفاده ازگفتار  دونالد ترامپ، باراک اوباما و هیلاری کلینتون، با توجه به برداشت لایه های مختلف صدا امکان پذیر شده است. اگر چه عملیات جعل هویت به نظر می رسد در حال حاضرشگفت انگیز وهیجان آورباشد، اما قابل درک است که  این رویه توسط یک کیفیت مرموز در غلبه بر ساز کار مشخص اجازه می دهد تا هر شنونده اگر آموزش هم ندیده باشد براحتی به شناسایی منشاء صوتی کامپیوتر پی ببرد. با این حال، این تکنولوژی به سرعت در حال پیشرفت؛ که در آن به عنوان یک نرم افزار خلاق غول پیکر، نرم افزار ادوبی(Adobe)  درحال کار است، در توسعه فن آوری های مشابه، اعلام کرده که هدفش از تولید نرم افزارمذکور"صدای فتوشاپ"است..
، ازسوی دیگر محققان دانشگاه استنفورد و موسسات دیگر موفق شده اند به توسعه قابلیت های تصویری شگفت انگیز ی دست یابند که بکارگیری  آن اجازه می دهد تا کلیپ ویدیوئی جعلی ارائه شود . این بسته ی نرم افزاری با برنامه های مبتنی بر هوش مصنوعی به کاربراجازه می دهد تا از فرد به تغییر حالات چهره واقعی و حرکات دهان در ارتباط با صحبت کردن به هر کسی در یک ویدئو کلیپ در یوتیوب بپردازد..در همین زمینه، دیگر گروه های تحقیقاتی موجود در زمینه هوش مصنوعی برای نشان دادن توانایی خودبرای اجرای قابلیت تشخیص تصویر در جهت مخالف  بخوداجازه می دهند تا نسلی از تصاویر مصنوعی   تنها شرح متن دلخواه  را تولید کنند. در این زمینه، "جف کولون" یکی از محققان که مدیریت سایت  ویرج"Virg"رابعهده دارد می گوید:  "مردم تصاویر واقعی به من ارسال می کنند من وسوسه می شوم که سوال کنم ایا اینها جعلی نیستند؟  اما وقتی که آنها تصاویر جعلی،به من ارسال می کنندبه دلیل کیفیت بالای آن گمان می کنم که اینها  واقعی هستند  ".
در واقع، جعل رسانه ای با کیفیت بالا و هزینه کم مسیری نگران کننده یافته است. با توجه به سرعت پیشرفت فعلی در این زمینه،  تنها دو یا سه سال به جعل و تقلب صدای واقعی  که بتواندبه اندازه کافی گوش آموزش ندیده را فریب بدهد  زمان نیاز داریم. علاوه بر این،همچنین از پنج تا 10 سال وقت لازم است تا بتوان به جعل ، تقلب و فریب در برخی از انواع تجزیه و تحلیل  حتی در پزشکی قانونی دست یابند..
اکنون عملکرد ابزار مسئول در تولید فیلم با کیفیت خیالی در مقایسه با بالاترین وضعیت در روز و در همان زمان برای مخاطب آماتور غیر آموزش دیده  دردسرآفرین است زیرا عملیات جعل و تقلب شامل بخش بزرگی از اکوسیستم اطلاعات در دسترس است. از سوی دیگر، البته رشد این فن آوری به جعل معانی از شواهد و حقایق در مناطق مختلف در امتداد خطوط مطبوعات ورسانه، ارتباطات دولت و  گواه در زمینه عدالت کیفری و امنیت ملی می شود..
در این مرحله،  زمانی که مسلح شدن مشتریان به نرم افزار های مختلف و همچنین توانایی برای نسل بوتنت  خودکار در به اشتراک گذاری صوتی و تصویری کلیپ های و رزولوشن بالا ی توییتها و اخبار دروغ  جعلی را مشاهده می کنید چه اتفاقی می افتد
 در واقع،درمقابل این صنعت باید تکنولوژی و دولتها  بی تفاوت نباشند نه تنها  برای پیدا کردن  تهدید نوظهور نهفته در این تکنولوژی در ابعاد مختلف  بلکه باید راه حلهای دیگری  هم وجود دردست داشته باشد..


Image result for AI Will Make Forging Anything Entirely Too Easy
در این راستا، برخی از این راه حلها  از جنس و رنگ فن آوری دارند. درست همان گونه که راه حل های تکنولوژیکی (در یک محدویت غیر قابل انکار)وجود دارد باید به دنبال جلوگیری از استفاده از تصاویر همانگونه که در برنامه هایی مانند فتوشاپ برای جعل پول وجود دارد، ممکن است راه حل های دیگر قادر به کاهش بدترین اثرات تقلب وجعل غیرمجاز توسط هوش مصنوعی وجود داشته باشد..
به نوبه خود، فن آوری "بلوکشن "یا"بلوک سری"رائه دهنده شیوه ی است که از فنآوری مورد استفاده برای تامین امنیت ارزهای رمز دار مانند بیت کوین ، بکار می رود یک احتمال این است همانگونه که به ارائه شواهد تضمینی رمزگذاری شده در یک مسیر برای تنظیم معاملات بیتکوین می پردازد که  راه هر کسی  را در تکرار ارز برای بار دوم کور کرده وبسته است عمل کند. علاوه بر این، ممکن است دوربین و میکروفون طوری استفاده شود که تکنولوژی بلوکشن برای ایجاد یک رکورد "ضبط "تاریخ ایجاد ثبت فیلم های ضبط شده را  طراحی کند تا محلی ازشک و تردید باقی نگذارد..
اگر چه این مرحله از ویرایش وضبط  بعد و یا از ظاهر شواهد ضد جعل بطورقطعی نمی تواند جلوگیری کند، اما آن سبک اجازه می دهد تا حداقل ایمنی شواهد رمزگذاری شده در یک روش برای نشان دادن حضور یک فایل خاص در یک تاریخ خاص به کارشناسان در نسخه های بعدی برای استنباط  در ویرایش پایانی کمک کند. راه حل دیگر، شیوه های  سازمانی و رویه اقدامات پیشگیرانه خواهد بود، که در آن افسران پلیس و دادستان ممکن است مجبور به ایجاد استانداردهایی برای شواهد  در اثبات دلایل دستگیری افراد از طریق استفاده از یک دوربین یا میکروفون خاص باشند..
در واقع، فرستنده یک فایل ویدئویی ممکن است از طریق یک ایمیل ناشناس در پایان دست خالی بماند، همچنانکه مواردی از این دست امروزه برای شهادت شهود از طریق یک ایمیل ناشناس ارسال  شده است. علاوه بر این، تمام نهادها ی ذیربط ممکن است روش های جدید در به رسمیت شناختن  مذاکرات چهره به چهره انجام شده  زمانی که درآن  تنها  به رهگیری دیجیتال از تماس های تلفنی و چت های ویدئویی محدود نشود، بلکه دیجیتالی جعلی دردستورکارداشته باشند..
 از اواخر قرن نوزدهم، با اختراع تصویر برداری و گرامافون، جامعه قادر به دسترسی به فن آوری شده است که می تواند پاسخ در اختلافات گزارش مربوط به یک حقیقت را ارائه کند. برای نمونه زمانی که رئیس جمهور ریچارد نیکسون می خواست با پوشش  نفی سرقتی که از واترگیت مهم تر بود ،منکر شود اما  نوارها   دروغگوئیش را  ثابت کرد..
اگر در این مورد  دولتمردان و مدیران کسب و کار  با این چالش بصورت جدی مواجه نشوند وبرخورد نکنند، پس ما باید در  جامعه ی زندگی کنیم که قضاوت نهایی حقیقی غایب خواهد بود ،لذا حقیقت را از دست ندهید.  با این تفاصیل درمجموع ممکن است پس از 10 سال مذاکرات جیمز کامی با دونالد ترامپ نشان دهدکه در آن نقطه  شهروندان و مورخان به طور یکسان  سوال می کنند آیا نوار مورد نظر واقعی بوده یا یک مورد دیگر از جعل است که توسط هوش مصنوعی ایجاد شده است...
تهیه وترجمه نجوای کنگان
منبع: وایرد
Author: Greg Allen
security
 
AI Will Make Forging Anything Entirely Too Easy






نوع مطلب : تحلیل مقاله 

داغ کن - کلوب دات کام
نظرات() 
 
لبخندناراحتچشمک
نیشخندبغلسوال
قلبخجالتزبان
ماچتعجبعصبانی
عینکشیطانگریه
خندهقهقههخداحافظ
سبزقهرهورا
دستگلتفکر
نظرات پس از تایید نشان داده خواهند شد.