حفاظت داده ها در عصر کلان داده ها بخش دوم

۱۵ اسفند ۱۳۹۷
4.8
حفاظت داده ها در عصر کلان داده ها بخش دوم

 قانون حفاظت از داده های اروپا بایستی برای حفاظت در برابر تحلیل استنباطی غالب در فناوری های دیجیتال نظیر  رایانش مرزی تکامل یابد

با استفاده از فن آوری های دیجیتال ارتباطی مدرن ، داده ها به صورت آگاهانه توسط کاربر ایجاد نمی شود زیرا توسط دستگاه ها و سرویس های اینترنتی در طی استفاده عادی مشاهده و یا "پایش می شوند". برای مثال ، شبکه های سنسورها می توانند به صورت محسوسی جمع آوری داده ها و داده های رفتاری ، اغلب در تنظیمات خصوصی که قبلا غیرقابل مشاهده شده اند (مثل در خانه یا زمانی که ما خواب می بینیم) به منظور پیش بینی و پاسخگویی به نیازهای ما (تنظیم دما یا روشنایی) با استفاده از یادگیری ماشین و هوش مصنوعی (AI). داده های ردیابی تناسب اندام ، مرور اینترنت ، تلفن های همراه (موقعیت جغرافیایی) و تعداد زیادی از دستگاه های دیگر نیز می توانند به طور یکپارچه و بدون خستگی ضبط شوند. مقدار و ارزش بالقوه داده ها جمع آوری شده برای کاربر ها مشخص نیست و بنابراین ، ایجاد یک مقررات حفاظت از داده ها که به دنبال ارائه افراد به نظارت و کنترل اطلاعات شخصی خود را به منظور حفاظت از حریم خصوصی نمی تواند وارد زمان بهتر کند . این چارچوب قانونی جدید که طبق مقررات حفاظت کلی داده شده (GDPR) نامیده می شود ، در آوریل 2016 در اروپا به تصویب رسید و در ماه مه 2018 اجرا شد.

 

داده های ناشناس

هیچ یک از حقوق GDPR برای داده های ناشناس اعمال نخواهد شد. این به دو دلیل دشوار است. اولا ، هر داده شناسایی نشده می تواند به لحاظ فنی معکوس شود و به یک فرد اختصاص پیدا کند. دوم ، حتی داده های واقعا ناشناس را می توان برای ساخت پروفایل های کاربر استفاده کرد و در نتیجه حریم خصوصی و تبعیض هنوز هم رخ می دهد ، بدون نیاز به شناسایی یک فرد خاص. در اینجا قانون محافظت از داده ها بر روی مرحله جمع آوری داده ها تمرکز می کند و نه به نحوه استفاده از داده ها و تأثیر آن بر افراد و گروه های مربوطه.

 

اطلاعات شخصی

در حالی که GDPR برای محافظت از اطلاعات شخصی طراحی شده است ، دادگاه اروپایی (ECJ) روشن نیست که آیا نتیجه گیری ها تحت این تعریف قرار می گیرند یا خیر. فقه ناسازگار است: یک حکم دادگاه سال 2014 به وضوح از نتیجه محافظت از قانون حفاظت از اطلاعات حذف می شود ، در حالی که قضاوت بعدی در سال 2017 وضعیت «داده های شخصی» را به نتیجه گیری می رساند. با این وجود ، حتی در مورد دوم ، کمیته حقوق بشر هم تمام حقوق مربوط به این وضعیت را نپذیرفت و روشن ساخت که قانون حفاظت از داده ها ، حقوق شخصی افراد را ارزیابی نمی کند. در عوض ، قانون فقط برای اطمینان از اینکه داده های ورودی به طور قانونی به دست آمده ، طراحی شده اند.

 

اطلاعات حساس

قانون حفاظت از داده های اروپا حفاظت بیشتر (به عنوان مثال ، استانداردهای بالاتر برای رضایت و محدودیت های مجاز) برای پردازش اطلاعات حساس یا «دسته های ویژه»، توصیف ویژگی هایی مانند سلامت ، قومیت یا باورهای سیاسی می شود. هنگامی که داده های شخصی را می توان نشان داد که ویژگی های حساس را می توان نتیجه گرفت ، یا «به صورت غیرمستقیم آشکار می شود» ، داده های منبعی که می توان آنها را کشف کرد ، همچنین می تواند به عنوان داده های حساس مورد توجه قرار گیرد. با این وجود ، دادگاه عمومی (EGC) مجددا کاربرد ماده 9 GDPR (که "دسته های خاص" داده ها را تعریف می کند) را محدود به مواردی می کند که قصد درج اطلاعات حساس وجود دارد و زمانی که منبع داده قابل اعتماد است برای رسیدن این استنتاج. هر دو این شرایط در حین اطلاعات بزرگ آسیب می بینند. قصد رسیدن به صفات حساس بی اهمیت است. داده های پروکسی مانند کدپستی حاوی اطلاعات حساس (مثلا جنسیت ، گرایش جنسی یا نژاد) صرف نظر از این که این خصوصیات عمدا یا صریحا تعریف شده باشد. همه چیز به طور بالقوه حساس است ، ما فقط آن را نمی دانیم. علاوه بر این ، آیا منبع داده قابل اعتماد است یا نه ، پایه قابل اعتماد برای رسیدن نتیجه گیری های حساس برای شخص مربوطه بی اهمیت است. اگر کسی به عنوان یک زن اشتباه به عنوان یک زن طبقه بندی شده و در نتیجه تبعیض را تجربه می کند ، صحت طبقه بندی به تاثیر آن مربوط نیست.

 

نتیجه گیری

در دنیای جمع آوری داده های به ظاهر فراگیر از طریق رایانش مرزی ، و تولید دانش فراگیر با استفاده از تحلیل های استنتاجی و پیش بینی شده ، و همچنین به اشتراک گذاری بیشتر این دانش بین احزاب دولتی و خصوصی ، مجوز قانون حفاظت از داده ها باید دوباره تعریف شود. طبقه بندی های قدیمی ، بی اثر و مایع داده ها به صورت شخصی یا غیر شخصی و حساس یا غیر حساس باید رها شوند. این دسته بندی ها فقط ماهیت داده ها را در زمانی که جمع آوری می شود ، نشان می دهند ، اما استفاده بعدی و تحولات بالقوه (به عنوان مثال ، استنباط گرایش جنسی ، وضعیت سلامتی یا جنسیت) را نادیده می گیرند. خطرات بالقوه برای افراد داده در زمان جمع آوری داده ها پایان نمی یابد و بنابراین قوانین حفاظت از داده ها در مقابل آسیب های احتمالی تحلیل های استنباطی مقاومت می کنند. همان طور که اخیرا در نقاط دیگر بحث کردم ، سن داده های بزرگ ، "حق الزحمه های منطقی" را تعیین می کند که استفاده قابل قبول و قابل قبول از داده ها ، شیوه های به اشتراک گذاری داده های اخلاقی و روش های قانونی مناسب در موارد صدمه را مدیریت می کند. به عنوان مزایا و ریسک ها به میزان قابل توجهی بسته به بخش (خصوصی ، بهداشت عمومی ، حمل و نقل و امور مالی) و برنامه کاربردی خاص متفاوت است ، تحقیقات بیشتری برای برآوردن استانداردهای قابل قبول اجتماعی قابل قبول لازم است. آینده رایانش مرزی نیاز به گفتگوی میان توسعه دهندگان و جامعه دارد که نه تنها بر آنچه که از لحاظ فنی امکان پذیر است ، بلکه همچنین بر اساس معقول بودن تمرکز می کند.

 

بخش اول مقاله را در اینجا بخوانید

به اشتراک بگذارید :
جدیدترین مطالب گروه :