[ad_1]
تقول منظمة غير ربحية مقرها برلين تدرس الطرق التي تقدم بها خوارزمية Instagram المحتوى للمستخدمين إن الشركة الأم Facebook “تخويف” باحثيها لقتل التجارب وحذف البيانات الأساسية التي تم جمعها بموافقة مستخدمي Instagram.
وتشارك Algorithm Watch ، كما يوحي اسمها ، في البحث الذي يراقب اتخاذ القرارات الحسابية من حيث صلتها بالسلوك البشري. في العام الماضي ، نشرت المجموعة بحثًا يشير إلى Instagram تفضل الصور الملتقطة، وأن مشاركات السياسيين كانت أقل احتمالًا للظهور في الخلاصات عندما احتوتوا على نص. عارض موقع Facebook جميع النتائج التي توصلت إليها المجموعة ، والتي تم نشرها مع قيودها المعلنة. في الوقت نفسه ، قالت المجموعة ، رفضت الشركة الرد على أسئلة الباحثين.
قالت Algorithm Watch يوم الجمعة إنها تعتقد أن العمل أخلاقي وقانوني ، إلا أنها لا تستطيع تحمل معركة قضائية ضد شركة تريليون دولار. على هذا الأساس وحده ، امتثلت لأوامر إنهاء التجارب.
قال نيكولاس كايسر بريل ، صحفي البيانات في Algorithm Watch ، في بيان: “تلعب المنصات الرقمية دورًا متزايدًا في هيكلة النقاش العام والتأثير عليه”. “يجب أن يكون مراقبو المجتمع المدني والباحثون والصحفيون قادرين على محاسبتهم”.
تم إغلاق المشروع بعد أسبوع من Facebook علقت حسابات باحثي جامعة نيويورك التحقيق في دور منصة Facebook في نشر معلومات مضللة حول الانتخابات الأمريكية وفيروس كورونا ، من بين مواضيع أخرى. قال باحثو جامعة نيويورك إن فيسبوك أصدر تحذيرات بشأن أساليبه في أكتوبر / تشرين الأول 2020 ، لكنه لم يتخذ إجراءً إلا بعد ساعات من اكتشاف أن البحث سيركز أيضًا على دور المنصة في انتفاضة 6 يناير.
More than a hundred academics and technologists موقَّعة خطاب الأسبوع الماضي يدين تصرفات Facebook. المشرعون الفيدراليون لديهم اتهم الشركة حماية نفسها عن قصد من المساءلة. أُجبرت لجنة التجارة الفيدرالية على تصحيح بيان أدلى به مسؤول في Facebook علنًا ألقى باللوم في التعليق على تسوية الخصوصية التي تم التفاوض عليها مع المنظمين بعد فضيحة كامبريدج أناليتكس.
وفقًا لـ Algorithm Watch ، كانت تجاربها مدفوعة ببيانات تم جمعها من حوالي 1500 متطوع ، وافق كل منهم على مراقبة خلاصات Instagram الخاصة بهم. قام المتطوعون بتثبيت مكون إضافي يلتقط الصور والنصوص من المشاركات التي ظهرت على خوارزمية Instagram في خلاصاتهم. لم يتم جمع أي معلومات عن المستخدمين أنفسهم ، وفقًا للباحثين.
زعم موقع Facebook أن المشروع انتهك شرطًا من شروط الخدمة الخاصة به والذي يحظر “الكشط” ، لكن الشركة فسرته مؤخرًا على أنها تتضمن بيانات قدمها مستخدموها طواعية إلى الأكاديميين.
Kayser-Bril ، أحد المساهمين في كتيب صحافة البيانات، يقول إن البيانات الوحيدة التي جمعتها Algorithm Watch تم نقلها بواسطة Instagram إلى جيشها من المتطوعين. قال ، “بعبارة أخرى ، مستخدمو المكون الإضافي [were] الوصول فقط إلى خلاصتهم الخاصة ومشاركتها معنا لأغراض البحث “.
كما اتهم فيسبوك الباحثين بانتهاك حماية الخصوصية بموجب قانون الخصوصية في الاتحاد الأوروبي ، اللائحة العامة لحماية البيانات. على وجه التحديد ، قائلاً إن المكون الإضافي الخاص به قد جمع بيانات عن المستخدمين الذين لم يوافقوا مطلقًا على أن يكونوا جزءًا من المشروع. “ومع ذلك، نظرة سريعة على الكود المصدري، والتي قمنا بفتحها ، تظهر أن هذه البيانات تم حذفها على الفور عند الوصول إلى خادمنا ، “قال Kayser-Bril.
قال متحدث باسم Facebook إن مسؤولي الشركة طلبوا عقد اجتماع غير رسمي مع Algorithm Watch “لفهم أبحاثهم ، وشرح كيف انتهكت شروطنا” ، و “عرضوا مرارًا وتكرارًا العمل معهم لإيجاد طرق لمواصلة بحثهم في بالطريقة التي لا تصل إلى معلومات الأشخاص “.
قال المتحدث: “عندما بدت Algorithm Watch غير راغبة في مقابلتنا ، أرسلنا دعوة رسمية أكثر”.
كتب كايسر بريل أن “الدعوة الأكثر رسمية” اعتبرتها المجموعة “تهديدًا مستترًا بشكل ضئيل”. بالنسبة للمساعدة التي يقولها فيسبوك إنه يقدمها ، قال الصحفي إن الشركة لا يمكن الوثوق بها. “فشلت الشركة في التصرف وفقًا لالتزاماتها أربع مرات على الأقل منذ بداية العام ، وفقًا لمؤسسة The Markup الإخبارية غير الربحية التي تدير جهود المراقبة الخاصة بها والتي تسمى متصفح المواطن،” هو قال. “في كانون الثاني (يناير) على سبيل المثال ، في أعقاب تمرد ترامب في الولايات المتحدة ، وعدت الشركة بأنها ستتوقف عن تقديم توصيات للانضمام إلى الجماعات السياسية. اتضح أنه ، بعد ستة أشهر ، ما زال كذلك “.
في رسالة بريد إلكتروني ، قام متحدث باسم Facebook بتضمين عدة روابط لمجموعات البيانات التي تقدمها الشركة للباحثين ، على الرغم من أنها كانت إما حصرية لمنصة Facebook أو مرتبطة بالإعلانات ؛ ليست ذات صلة بعمل Algorithm Watch المرتبط بـ Instagram.
كان باحثو جامعة نيويورك المحظورون من قبل الشركة شكاوى مماثلة. لم تغطي مجموعة البيانات المقدمة لهم سوى ثلاثة أشهر من الإعلانات قبل انتخابات 2020 ، ولم تكن ذات صلة بأبحاثهم في المعلومات الخاطئة المتعلقة بالوباء ، فضلاً عن مشروع جديد يركز على أعمال الشغب في الكابيتول. استبعدت البيانات أيضًا عن قصد غالبية الإعلانات الصغيرة ، والتي كانت ضرورية لمشروع جامعة نيويورك.
يقول الباحثون إن البيانات التي يقدمها Facebook أصبحت عديمة الفائدة بسبب القيود التي تفرضها الشركة ، وأن استخدامها سيسمح لـ Facebook بالتحكم في نتائج التجارب. إحدى الشكاوى التي تم بثها مؤخرًا بواسطة Facebook ، على سبيل المثال ، هي أنه لا يمكنه تحديد المستخدمين الذين قاموا بتثبيت المكونات الإضافية التي صممها الباحثون لجمع البيانات.
لكنهم يقولون إن السماح لفيسبوك بهذه المعرفة من شأنه أن يمنح الشركة القدرة على التلاعب بخلاصات المتطوعين ؛ لتصفية المحتوى ، على سبيل المثال ، الذي لا يرغب الباحثين في رؤيته. قارن أحد الباحثين ، الذي طلب عدم ذكر اسمه بسبب مخاوف قانونية ، هذا بالسماح لشركة Exxon بالتأثيث عينات المياه الخاصة بها بعد انسكاب الزيت.
“نتعاون مع مئات المجموعات البحثية لتمكين دراسة الموضوعات المهمة ، بما في ذلك من خلال توفير مجموعات البيانات والوصول إلى واجهات برمجة التطبيقات والمعلومات المنشورة مؤخرًا التي توضح كيفية عمل أنظمتنا ولماذا ترى ما تراه على نظامنا الأساسي” ، متحدث باسم Facebook قالت. “نعتزم مواصلة العمل مع باحثين مستقلين ، ولكن بطرق لا تعرض بيانات الأشخاص أو خصوصيتهم للخطر.”
وأضاف كايسر بريل: “تلعب المنصات الكبيرة دورًا كبيرًا وغير معروف إلى حد كبير في المجتمع ، من بناء الهوية إلى خيارات التصويت. فقط من خلال العمل نحو المزيد من الشفافية يمكننا أن نضمن ، كمجتمع ، وجود نقاش قائم على الأدلة حول دور وتأثير المنصات الكبيرة – وهي خطوة ضرورية نحو مساءلتها “.
.
[ad_2]