‘Deepfakes” در حال گرفتن بیشتر و جوی پیشرفته و ما نیاز به نگرانی در


deep-fake-1
ترسناک مامان Debrocke/ClassicStock/گتی و لیام Briese/Unsplash

دو سال پیش من دیدم تصویری از “اوباما” خواستار دونالد مغلوب ساختن پیشی جستن یک “dipshit” و همراه با هر کس دیگری بود شگفت زده شده توسط فن آوری های شناخته شده به عنوان “deepfake.”

من هم وحشت دارم. من خیلی وحشت دارم که من عمدا من را بلعیده ترس و انتخاب را به فکر می کنم در مورد این ویدئو و یا پیامدهای آن. و در عین حال من می دانم که ما نیاز به نگرانی در مورد این فن آوری است.

این شده است هرگز به آسان برای مصرف کنندگان از رسانه ها را کاغذ یا دیجیتال به قاضی چه چیزی واقعی است و چه جعلی است. حتی قبل از تلویزیون, اینترنت, تلفن های هوشمند, و رسانه های اجتماعی در یک روزنامه چاپ می تواند انتشار یک فرد در بیانیه ای خارج از چارچوب و گاهی اوقات که فقدان زمینه به طور کامل تغییر معنی. رسانه ها از هر نوع همواره در معرض ابتلا به حداقل برخی از تعصب. برخی از نشریات به وضوح نگرانی خاص در دستور کار اما حتی جدی ترین این تلاش در بی طرفی رنگی هستند و با تعصب. Deepfake تکنولوژی ایجاد یک پلت فرم برای تولید و انتشار دروغ آشکار.

دقیقا چه deepfake?

اختراع در سال 2014 توسط ایان Blacklivesmatter در آن زمان یک دانشجوی دکترا اما در حال حاضر یک کارمند اپل deepfake تکنولوژی اجازه می دهد تا مردم را به ایجاد یک به طور کامل باور تقریبا کامل نمایندگی از کسی گفته و یا انجام چیزی است که آنها واقعا نمی گویند و یا انجام دهد. Deepfake تکنولوژی در حال توسعه در یک سرعت شگفت آور. همه را یک نیاز است خوب پردازنده قدرتمند و کارت گرافیک و کل مقدار زیادی از زمان. در حال حاضر یک deepfake خالق خواهد نیاز به جمع آوری بسیاری از عکس ها از هدف و بازیگر برای به انجام رساندن باور ارضا روی صورت, نقشه برداری, اما به عنوان به سرعت به عنوان فن آوری در حال توسعه این تصور که در آینده نزدیک یکی از تنها نیاز به یک چند تا عکس از زوایای مختلف.

برای روشن یک deepfake خالق لزوما نیاز به تجهیزات گران قیمت و یا حتی درک درستی از این فناوری برای انجام آسیب واقعی به کسی. در ماه مه سال 2019 یک تصویری از بلندگو پلوسی منتشر شد جایی که او به نظر می رسد مست و یا در غیر این صورت دچار اختلال میشود. این ویدیو ساده ترین نوع deepfake شناخته شده به عنوان “shallowfake”: آن را به حال شده است به سادگی آهسته به 75 درصد از آن با سرعت اولیه. سپس ما ادم سفیه و احمق جمهور توییتی در این ویدئو با پیروان خود را. آن را پس از تبدیل شدن به روشن است که تصویری واضح است که doctored اما این آسیب در حال حاضر انجام شده است.

Deepfakes استفاده نمی شود به طور انحصاری برای دستکاری در سیاست است. اکثریت قریب به اتفاق deepfakes نیست با انگیزه های سیاسی در همه — به عنوان ژوئیه 2019, 96 درصد از آنها مستهجن و از آن 99 درصد ویدئوها دستکاری به ستاره های پورنو چهره یک زن مشهور. آن را سخت به تصور کنید که پتانسیل برای انتقام انجمن اینجا. اما این بدان معنا نیست که ما لازم نیست که نگران باشید.

چقدر ما نیاز به نگرانی در مورد deepfakes?

ما در حال حاضر دیده می شود که چگونه مخل ساده ترین و پایین ترین تکنولوژی deepfake می تواند به یک شخصیت سیاسی. حالا تصور کنید که چه قانع کننده deepfake می تواند انجام دهد اگر آن را منتشر می گویند قبل از بحرانی انتخابات. یا به اجبار کسی. حتی صوتی را می توان deepfaked. در ماه مارس 2019 ارشد از انگلستان شرکت تابعه از یک شرکت انرژی دریافت تماس از یک مرد او معتقد بود که مدیر عامل شرکت آلمانی. در جهت است که تماس تلفنی به او منتقل 220,000 یورو به مجارستان حساب بانکی. اعتقاد بر این است که صدا در این تماس تلفنی بود, تولید شده با استفاده از A. I. برای شبیه سازی آلمانی مدیر عامل صدا.

انتخابات اغلب برنده با باریکترین حاشیه. استراتژیک قرار داده شده deepfake با نابکار قصد ندارد به احمق میلیون ها نفر از مردم است. در انتخابات میان هیلاری کلینتون و دونالد مغلوب ساختن پیشی جستن کلینتون برنده رای مردمی با اختلاف قابل توجهی از 2.9 میلیون رای بود اما صرف 80,000 آرا در سه متحده که تصمیم انتخاباتی را به نفع خود برای مغلوب ساختن پیشی جستن. با توجه به این که دو سوم از آمریکایی ها مصرف اخبار خود را از طریق رسانه های اجتماعی و deepfake خواهد فقط نیاز به یک احمق صد هزار نفر آن را روشن است که به خوبی گردد deepfake رفته ویروسی کاملا می تواند پرتاب یک انتخابات.

ما همچنین نیاز به نگران در مورد آنچه در آن می تواند برای جامعه به عنوان یک کل بیشتر به تضعیف توانایی های عمومی به این باور رسانه ها است که به آنها ارائه شده. چه اتفاقی می افتد هنگامی که ما نه تنها دیگر نمی دانم چه چیزی را باور داریم اما ما به سادگی متوقف و حتی تلاش برای تشخیص تفاوت ؟

بله. ما نیاز به نگرانی زیادی است.

چگونه شما می توانید نقطه deepfake?

Welp. لکه بینی deepfakes است که تنها برای گرفتن سخت تر و سخت تر به خصوص برای ما انسان ها صرف. لحظه ای یک ضعف کشف شده است برنامه نویسان پیدا کردن یک راه به آن را تعمیر. برای مثال در سال 2018 محققان با اشاره به این که deepfake چهره به طور معمول به چشمک زدن نیست. بلافاصله پس از deepfake چهره ها شروع به چشمک زدن.

جالب اینجاست که راه ما خواهد شد به احتمال زیاد در یادگیری به نقطه deepfakes ایجاد شده با A. I. تکنولوژی است که با بیشتر و بهتر A. I. فن آوری است. سال گذشته مایکروسافت Facebook و آمازون به طور مشترک بودجه Deepfake تشخیص چالش رقابت در سراسر جهان برای دیدن که می تواند آمد تا با بهترین deepfake تکنولوژی تشخیص. ارسالی پنجره بسته شده و در 31 مارس سال جاری میلیون دلار جایزه در حال حاضر حلق آویز در تعادل به عنوان سرور تست اثر ارسالی.

این باعث می شود من کمی کمتر وحشت زده… آه من حدس می زنم ؟

Deepfake تکنولوژی نشان دهنده اوج تکامل و یکپارچه سازی واقعیت مجازی و هوش مصنوعی است. این واقعیت است که وجود دارد گسترده مفاهیم اخلاقی به deepfake تکنولوژی و آسیب واقعی است که می تواند انجام شود. نه تنها مخالف تکنولوژی را به نگه دارید تا, اما, بنابراین آیا این قانون است. من مطمئن هستم که بسیاری از ما انتظار می رود که به نگرانی در مورد مردم تولید دیجیتال تقلبی از واقعی انسان — از ما — اما ما باید به طور جدی در نظر بگیرید که آیا باید آن را قانونی و در همه حال به انجام این کار. من مطمئن شوید که به عنوان جهنم نمی خواهم مثل بودن مورد استفاده قرار گیرد در هر شکل بدون رضایت صریح و روشن. شما می شود ؟

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.detny.im