عنوان مقاله:

حفاظت از اشتراک گذاری داده ها برای حریم خصوصی از دیدگاه مالی

The Protection of Data Sharing for Privacy in Financial Vision

سال انتشار: 2022

رشته: کامپیوتر - مدیریت

گرایش: امنیت اطلاعات  - مدیریت مالی

دانلود رایگان این مقاله:

دانلود مقاله اشتراک گذاری داده ها

مشاهده سایر مقالات جدید:

 

مقالات ISI کامپیوتر

 

مقالات ISI مدیریت

5. Discussion
When noise size = 0.1 and 0.3, ϵ = 90,964.58 and 284.62, respectively. The value of ϵ is so high that there is almost no privacy guarantee. Therefore, we will not discuss the two models. When noise is 0.5, ϵ = 39.5, test accuracy = 90.75%, which is about 5% lower than baseline model’s test accuracy. When noise is 0.7, ϵ = 12.62, test accuracy = 90.45%, which is about 6% lower than the baseline model. When noise is 1, ϵ = 5.41, test accuracy = 89.23%, and it is about 7% lower than the baseline model. We can find that even when noise is 1, the accuracy does not decrease too much.
Financial vision contains sensitive information flagged by experts and could cause significant damage if leaked. Fortunately, differential privacy prevents data leakage. However, the differential privacy mechanism protects data by adding noise to the model, inevitably leading to model accuracy degradation or data distortion problems. The balancing data’s readability does not provide a conclusion when we train the differential privacy model. Dwork and Roth recommend ϵ ≤ 1 to obtain a privacy guarantee [39]. Nevertheless, using such a small ϵ will cause difficulties in data interpretation. A higher ϵ is usually selected to balance privacy guarantee and data readability. For example, the ϵ standard used by Google and Apple is between 6 and 14 [17,40]. Similar results are in our experiments. Model accuracy decreases by approximately 6% with ϵ = 12.62 and only 7% with ϵ = 5.41. The accuracy reduction is tolerable, and the privacy guarantee of the training data is greatly improved.
On the other hand, there are excessively different results of differential privacy for different data types [25]. The details are in Table 3. In MNIST, compared to the baseline model, when ϵ = 2, the accuracy only decreases around 3.3%. However, in CIFAR-10, the accuracy dived from 96.5 to 70% when ϵ = 4. In our data, the accuracy of the model of ϵ = 5 is 7% lower than the baseline model. Although not as good as MNIST, it is still acceptable.

(دقت کنید که این بخش از متن، با استفاده از گوگل ترنسلیت ترجمه شده و توسط مترجمین سایت ای ترجمه، ترجمه نشده است و صرفا جهت آشنایی شما با متن میباشد.)

5. بحث
هنگامی که اندازه نویز = 0.1 و 0.3، ε = 90964.58 و 284.62 است. ارزش ϵ آنقدر زیاد است که تقریباً هیچ تضمینی برای حفظ حریم خصوصی وجود ندارد. بنابراین، ما در مورد دو مدل بحث نمی کنیم. هنگامی که نویز 0.5 است، ε = 39.5، دقت تست = 90.75٪ است که حدود 5٪ کمتر از دقت آزمایش مدل پایه است. هنگامی که نویز 0.7 است، ε = 12.62، دقت تست = 90.45٪، که حدود 6٪ کمتر از مدل پایه است. هنگامی که نویز 1 است، 5 = 5.41، دقت تست = 89.23٪، و حدود 7٪ کمتر از مدل پایه است. می‌توانیم متوجه شویم که حتی وقتی نویز 1 باشد، دقت زیاد کاهش نمی‌یابد.
چشم انداز مالی حاوی اطلاعات حساسی است که توسط کارشناسان علامت گذاری شده است و در صورت فاش شدن می تواند باعث آسیب جدی شود. خوشبختانه، حریم خصوصی دیفرانسیل از نشت داده ها جلوگیری می کند. با این حال، مکانیسم حریم خصوصی دیفرانسیل با اضافه کردن نویز به مدل، از داده ها محافظت می کند، که به ناچار منجر به کاهش دقت مدل یا مشکلات اعوجاج داده می شود. هنگامی که مدل حریم خصوصی تفاضلی را آموزش می‌دهیم، خوانایی داده‌های متوازن نتیجه‌گیری نمی‌کند. Dwork و Roth برای به دست آوردن ضمانت حفظ حریم خصوصی، ϵ ≤ 1 را توصیه می کنند [39]. با این وجود، استفاده از چنین ϵ کوچکی باعث مشکلاتی در تفسیر داده ها می شود. معمولاً یک ϵ بالاتر برای تعادل تضمین حریم خصوصی و خوانایی داده ها انتخاب می شود. به عنوان مثال، استاندارد ϵ مورد استفاده توسط گوگل و اپل بین 6 تا 14 است [17،40]. نتایج مشابهی در آزمایشات ما وجود دارد. دقت مدل تقریباً 6٪ با ϵ = 12.62 و تنها 7٪ با 5.41 = 7 کاهش می یابد. کاهش دقت قابل تحمل است و تضمین حریم خصوصی داده های آموزشی بسیار بهبود یافته است.