অ্যাপল নিউজ

অ্যাপল সিএসএএম সনাক্তকরণ এবং বার্তা স্ক্যানিং সম্পর্কে উদ্বেগের সমাধান করতে প্রায়শই জিজ্ঞাসিত প্রশ্নাবলী প্রকাশ করে

সোমবার 9 আগস্ট, 2021 2:50 am PDT টিম হার্ডউইক দ্বারা

অ্যাপল 'শিশুদের জন্য প্রসারিত সুরক্ষা' শিরোনামে একটি FAQ প্রকাশ করেছে যার লক্ষ্য হল নতুন CSAM সনাক্তকরণ সম্পর্কে ব্যবহারকারীদের গোপনীয়তা উদ্বেগ দূর করা আইক্লাউড ফটো এবং বার্তাগুলির জন্য যোগাযোগ সুরক্ষার বৈশিষ্ট্যগুলি যা কোম্পানির গত সপ্তাহে ঘোষণা করা হয়েছে .





আপেল গোপনীয়তা
'যেহেতু আমরা এই বৈশিষ্ট্যগুলি ঘোষণা করেছি, গোপনীয়তা সংস্থা এবং শিশু সুরক্ষা সংস্থাগুলি সহ অনেক স্টেকহোল্ডার এই নতুন সমাধানের প্রতি তাদের সমর্থন প্রকাশ করেছে, এবং কিছু প্রশ্ন নিয়ে পৌঁছেছে,' FAQ পড়ে৷ 'এই নথিটি এই প্রশ্নগুলির সমাধান করতে এবং প্রক্রিয়ায় আরও স্পষ্টতা এবং স্বচ্ছতা প্রদান করে।'

কিছু আলোচনা দুটি বৈশিষ্ট্যের মধ্যে পার্থক্যকে ঝাপসা করে দিয়েছে, এবং অ্যাপল এতে দারুণ কষ্ট পায় নথি তাদের পার্থক্য করার জন্য, ব্যাখ্যা করে যে বার্তাগুলিতে যোগাযোগ সুরক্ষা 'শুধুমাত্র ফ্যামিলি শেয়ারিং-এ সেট আপ করা শিশু অ্যাকাউন্টগুলির জন্য বার্তা অ্যাপে পাঠানো বা প্রাপ্ত চিত্রগুলিতে কাজ করে', যখন ‌iCloud ফটোস‌-এ CSAM সনাক্তকরণ। 'শুধুমাত্র সেই ব্যবহারকারীদের প্রভাবিত করে যারা ‌iCloud Photos‌ তাদের ফটো সংরক্ষণ করার জন্য... অন্য কোনো অন-ডিভাইস ডেটাতে কোনো প্রভাব নেই।'



FAQ থেকে:

কিভাবে আইফোনে নির্দিষ্ট অ্যাপ লক করবেন

এই দুটি বৈশিষ্ট্য একই নয় এবং একই প্রযুক্তি ব্যবহার করে না।

বার্তাগুলিতে যোগাযোগের নিরাপত্তা পিতামাতা এবং শিশুদের অতিরিক্ত সরঞ্জাম দেওয়ার জন্য ডিজাইন করা হয়েছে যাতে তাদের সন্তানদের মেসেজ অ্যাপে যৌনতাপূর্ণ ছবি পাঠানো এবং গ্রহণ করা থেকে রক্ষা করা যায়। এটি শুধুমাত্র ফ্যামিলি শেয়ারিং-এ সেট আপ করা শিশুদের অ্যাকাউন্টগুলির জন্য বার্তা অ্যাপে পাঠানো বা প্রাপ্ত ছবিগুলিতে কাজ করে। এটি ডিভাইসে থাকা চিত্রগুলিকে বিশ্লেষণ করে এবং তাই বার্তাগুলির গোপনীয়তার নিশ্চয়তা পরিবর্তন করে না৷ যখন একটি শিশুর অ্যাকাউন্ট যৌনতাপূর্ণ ছবি পাঠায় বা গ্রহণ করে, তখন ফটোটি ঝাপসা হয়ে যাবে এবং শিশুটিকে সতর্ক করা হবে, সহায়ক সংস্থানগুলি উপস্থাপন করা হবে এবং আশ্বস্ত করা হবে যে তারা ছবিটি দেখতে বা পাঠাতে না চাইলে ঠিক আছে৷ অতিরিক্ত সতর্কতা হিসাবে, ছোট বাচ্চাদেরও বলা যেতে পারে যে, তারা নিরাপদ কিনা তা নিশ্চিত করার জন্য, তাদের অভিভাবক যদি এটি দেখেন তবে তাদের একটি বার্তা পাবেন।

দ্বিতীয় বৈশিষ্ট্য, আইক্লাউড ফটোতে সিএসএএম সনাক্তকরণ, সিএসএএমকে আইক্লাউড ফটো থেকে দূরে রাখার জন্য ডিজাইন করা হয়েছে অ্যাপলকে পরিচিত CSAM চিত্রের সাথে মেলে এমন ফটোগুলি ছাড়া অন্য কোনও ফটো সম্পর্কে তথ্য না দিয়ে। মার্কিন যুক্তরাষ্ট্র সহ বেশিরভাগ দেশে CSAM ছবি রাখা অবৈধ। এই বৈশিষ্ট্যটি শুধুমাত্র সেই ব্যবহারকারীদের প্রভাবিত করে যারা তাদের ফটোগুলি সংরক্ষণ করতে iCloud ফটো ব্যবহার করতে বেছে নিয়েছে। এটি ব্যবহারকারীদের প্রভাবিত করে না যারা iCloud ফটো ব্যবহার করা বেছে নেননি। অন্য কোনো অন-ডিভাইস ডেটাতে কোনো প্রভাব নেই। এই বৈশিষ্ট্যটি বার্তাগুলিতে প্রযোজ্য নয়৷

বাকি নথিটি তিনটি বিভাগে বিভক্ত করা হয়েছে (নীচে বোল্ডে), নিম্নলিখিত সাধারণত জিজ্ঞাসিত প্রশ্নের উত্তর সহ:

কিভাবে ম্যাক কম্পিউটারের নাম পরিবর্তন করবেন

কীভাবে আইফোনে একটি গ্রুপ চ্যাট থেকে নিজেকে সরিয়ে ফেলবেন
    বার্তাগুলিতে যোগাযোগের নিরাপত্তা
  • কে মেসেজে যোগাযোগ নিরাপত্তা ব্যবহার করতে পারে?
  • এর মানে কি মেসেজ অ্যাপল বা আইন প্রয়োগকারী সংস্থার সাথে তথ্য শেয়ার করবে?
  • এটি কি মেসেজে এন্ড-টু-এন্ড এনক্রিপশন ভেঙে দেয়?
  • এই বৈশিষ্ট্যটি কি আপত্তিজনক বাড়িতে শিশুদের সাহায্য চাইতে বাধা দেয়?
  • শিশুদের সতর্ক করা এবং একটি পছন্দ দেওয়া ছাড়া অভিভাবকদের অবহিত করা হবে?
  • CSAM সনাক্তকরণ
  • এর মানে কি অ্যাপল আমার সংরক্ষিত সমস্ত ফটো স্ক্যান করতে যাচ্ছে আইফোন ?
  • এটি কি আমার ‌iPhone‌ এ CSAM ছবি ডাউনলোড করবে? আমার ছবির সাথে তুলনা করতে?
  • অ্যাপল এখন কেন এমন করছে?
  • iCloud ফটোর জন্য CSAM সনাক্তকরণের জন্য নিরাপত্তা
  • ‌iCloud ফটোতে CSAM সনাক্তকরণ সিস্টেম‌ CSAM ছাড়া অন্য জিনিস সনাক্ত করতে ব্যবহার করা হবে?
  • সরকার কি অ্যাপলকে হ্যাশ তালিকায় নন-সিএসএএম ছবি যুক্ত করতে বাধ্য করতে পারে?
  • CSAM ব্যতীত অন্য জিনিসগুলির জন্য অ্যাকাউন্টগুলিকে ফ্ল্যাগ করার জন্য নন-CSAM ছবিগুলিকে সিস্টেমে 'ইনজেকশন' করা যেতে পারে?
  • CSAM সনাক্তকরণ ‌iCloud Photos‌ নিরপরাধ ব্যক্তিদের আইন প্রয়োগের জন্য মিথ্যা পতাকা?

আগ্রহী পাঠকদের এই প্রশ্নগুলির জন্য অ্যাপলের সম্পূর্ণ প্রতিক্রিয়ার জন্য নথির সাথে পরামর্শ করা উচিত। যাইহোক, এটি লক্ষণীয় যে যে প্রশ্নগুলির উত্তর হ্যাঁ/না দিয়ে বাইনারি দিয়ে দেওয়া যেতে পারে, অ্যাপল সেগুলির সবকটিই 'না' দিয়ে শুরু করে এবং 'সিকিউরিটি ফর CSAM ডিটেকশন ফর ‌ আইক্লাউড ফটোস‌:'

আইক্লাউড ফটোতে CSAM সনাক্তকরণ সিস্টেমটি CSAM ছাড়া অন্য জিনিস সনাক্ত করতে ব্যবহার করা যেতে পারে?
আমাদের প্রক্রিয়াটি ঘটতে না দেওয়ার জন্য ডিজাইন করা হয়েছে। আইক্লাউড ফটোগুলির জন্য CSAM সনাক্তকরণ তৈরি করা হয়েছে যাতে সিস্টেমটি শুধুমাত্র NCMEC এবং অন্যান্য শিশু সুরক্ষা সংস্থাগুলির দ্বারা প্রদত্ত CSAM ইমেজ হ্যাশগুলির সাথে কাজ করে৷ ইমেজ হ্যাশের এই সেটটি শিশু সুরক্ষা সংস্থাগুলির দ্বারা অর্জিত এবং CSAM হওয়ার জন্য বৈধ করা ছবির উপর ভিত্তি করে তৈরি করা হয়েছে। আইন প্রয়োগকারী সংস্থার কাছে কোন স্বয়ংক্রিয় রিপোর্টিং নেই, এবং অ্যাপল এনসিএমইসিকে রিপোর্ট করার আগে মানবিক পর্যালোচনা করে। ফলস্বরূপ, সিস্টেমটি শুধুমাত্র আইক্লাউড ফটোতে CSAM পরিচিত ফটোগুলি রিপোর্ট করার জন্য ডিজাইন করা হয়েছে৷ মার্কিন যুক্তরাষ্ট্র সহ বেশিরভাগ দেশে, কেবল এই ছবিগুলি রাখা একটি অপরাধ এবং অ্যাপল উপযুক্ত কর্তৃপক্ষের কাছে আমাদের জানার যে কোনও ঘটনা রিপোর্ট করতে বাধ্য।

সরকার কি অ্যাপলকে হ্যাশ তালিকায় নন-সিএসএএম ছবি যুক্ত করতে বাধ্য করতে পারে?
অ্যাপল এই ধরনের কোনো দাবি প্রত্যাখ্যান করবে। Apple-এর CSAM শনাক্তকরণ ক্ষমতা শুধুমাত্র iCloud ফটোতে সংরক্ষিত পরিচিত CSAM চিত্রগুলি সনাক্ত করার জন্য তৈরি করা হয়েছে যা NCMEC এবং অন্যান্য শিশু সুরক্ষা গোষ্ঠীর বিশেষজ্ঞদের দ্বারা চিহ্নিত করা হয়েছে৷ আমরা সরকার-নির্দেশিত পরিবর্তনগুলি তৈরি এবং স্থাপন করার দাবির সম্মুখীন হয়েছি যা ব্যবহারকারীদের গোপনীয়তাকে ক্ষুণ্ণ করে, এবং সেই দাবিগুলিকে অবিচলভাবে প্রত্যাখ্যান করেছি৷ আমরা ভবিষ্যতে তাদের প্রত্যাখ্যান করতে থাকব। আমাদের পরিষ্কার করা যাক, এই প্রযুক্তিটি আইক্লাউডে সংরক্ষিত CSAM সনাক্ত করার মধ্যেই সীমাবদ্ধ এবং আমরা এটিকে প্রসারিত করার জন্য কোনো সরকারের অনুরোধে সম্মত হব না। উপরন্তু, অ্যাপল এনসিএমইসি-তে রিপোর্ট করার আগে মানবিক পর্যালোচনা করে। এমন একটি ক্ষেত্রে যেখানে সিস্টেম পরিচিত CSAM চিত্রগুলির সাথে মেলে না এমন ফটোগুলিকে ফ্ল্যাগ করে, অ্যাকাউন্টটি নিষ্ক্রিয় করা হবে না এবং NCMEC-তে কোনও প্রতিবেদন দাখিল করা হবে না।

CSAM ব্যতীত অন্য জিনিসগুলির জন্য অ্যাকাউন্টগুলিকে ফ্ল্যাগ করার জন্য নন-CSAM ছবিগুলিকে সিস্টেমে 'ইনজেকশন' করা যেতে পারে?
আমাদের প্রক্রিয়াটি ঘটতে না দেওয়ার জন্য ডিজাইন করা হয়েছে। মিলের জন্য ব্যবহৃত ইমেজ হ্যাশের সেটগুলি CSAM-এর পরিচিত, বিদ্যমান ছবিগুলি থেকে যা শিশু সুরক্ষা সংস্থাগুলি দ্বারা অর্জিত এবং যাচাই করা হয়েছে৷ Apple পরিচিত CSAM ইমেজ হ্যাশের সেটে যোগ করে না। হ্যাশের একই সেট প্রতিটি iPhone এবং iPad ব্যবহারকারীর অপারেটিং সিস্টেমে সংরক্ষণ করা হয়, তাই আমাদের ডিজাইনের অধীনে শুধুমাত্র নির্দিষ্ট ব্যক্তির বিরুদ্ধে লক্ষ্যবস্তু আক্রমণ সম্ভব নয়। অবশেষে, আইন প্রয়োগকারী সংস্থার কাছে কোন স্বয়ংক্রিয় রিপোর্টিং নেই, এবং অ্যাপল এনসিএমইসিকে রিপোর্ট করার আগে মানবিক পর্যালোচনা করে। সিস্টেম ফ্ল্যাগিং ইমেজগুলির অসম্ভাব্য ইভেন্টে যেগুলি পরিচিত CSAM ইমেজের সাথে মেলে না, অ্যাকাউন্টটি নিষ্ক্রিয় করা হবে না এবং NCMEC-এর কাছে কোনও রিপোর্ট দায়ের করা হবে না।

অ্যাপল গোপনীয়তা সমর্থক, নিরাপত্তা গবেষক, ক্রিপ্টোগ্রাফি বিশেষজ্ঞ, শিক্ষাবিদ এবং অন্যান্যদের কাছ থেকে উল্লেখযোগ্য সমালোচনার সম্মুখীন হয়েছে iOS 15 এবং আইপ্যাড 15 , সেপ্টেম্বরে প্রত্যাশিত।

এই একটি ফলে হয়েছে খোলা চিঠি ‌iCloud Photos‌-এ CSAM-এর জন্য iPhone স্ক্যান করার অ্যাপলের পরিকল্পনার সমালোচনা করা এবং শিশুদের বার্তাগুলিতে স্পষ্ট ছবি, যা লেখার সময় 5,500 টিরও বেশি স্বাক্ষর পেয়েছে। অ্যাপল ফেসবুকের মালিকানাধীন হোয়াটসঅ্যাপ থেকেও সমালোচনা পেয়েছে, যার প্রধান উইল ক্যাথকার্ট এটা বলা হয় 'ভুল পদ্ধতি এবং সারা বিশ্বে মানুষের গোপনীয়তার জন্য একটি বিপত্তি।' এপিক গেমসের সিইও টিম সুইনিও আক্রমণ সিদ্ধান্তটি, দাবি করে যে তিনি অ্যাপলের দৃষ্টিকোণ থেকে পদক্ষেপটি দেখার জন্য 'কঠোর চেষ্টা করেছিলেন', কিন্তু তিনি এই সিদ্ধান্তে পৌঁছেছিলেন যে, 'অনিবার্যভাবে, এটি অপরাধবোধের অনুমানের ভিত্তিতে অ্যাপল দ্বারা ইনস্টল করা সরকারী স্পাইওয়্যার।'

'যতই সদিচ্ছা থাকুক না কেন, অ্যাপল এটির মাধ্যমে সমগ্র বিশ্বে ব্যাপক নজরদারি চালাচ্ছে,' বলেছেন বিশিষ্ট হুইসেলব্লোয়ার এডওয়ার্ড স্নোডেন, যোগ করেছেন যে 'যদি তারা আজ কিডি পর্ণের জন্য স্ক্যান করতে পারে, তারা আগামীকাল যে কোনও কিছুর জন্য স্ক্যান করতে পারে।' অলাভজনক ইলেকট্রনিক ফ্রন্টিয়ার ফাউন্ডেশনও সমালোচিত অ্যাপল এর পরিকল্পনা, 'এমনকি একটি পুঙ্খানুপুঙ্খভাবে নথিভুক্ত, সাবধানে চিন্তা আউট, এবং সংকীর্ণ-স্কোপ ব্যাকডোর এখনও একটি পিছনের দরজা।'

আইফোন একটি নতুন ফোন নিয়ে আসছে
ট্যাগ: অ্যাপল গোপনীয়তা , অ্যাপল শিশু নিরাপত্তা বৈশিষ্ট্য