تصمیم به‌عهده نرم‌افزار آیا فناوری از «آدم‌شناسی» غریزی ما پیشی خواهد گرفت؟

تصمیم به‌عهده نرم‌افزار آیا فناوری از «آدم‌شناسی» غریزی ما پیشی خواهد گرفت؟

اولین درسی که درباره خطراتِ اعتماد به غریبه‌ها آموختم به سال ۱۹۸۳ برمی‌گردد، تازه پنج‌سالم شده بود که زنِ ناشناسی وارد خانه‌مان شد. دوریس، زنی اهلِ گلاسگو و درآستانه سی‌سالگی که به‌تازگی پرستارِ ما شده بود. مامانم او را از مجله باکلاسی به نامِ دِ لیدی پیدا کرده بود.

دوریس درحالی که کلاه مخصوص و یونیفرمِ یک انجمن خیریه مذهبی موسوم به سپاهِ رستگاری را به تن داشت از راه رسید. مادرم می‌گوید: «لهجه زمخت اسکاتلندی‌اش خاطرم هست. به من گفت که قبلاً تجربه کار با بچه‌هایی در این سن‌وسال را داشته و چون از کمک به مردم لذت می‌بَرَد عضوِ سپاهِ رستگاری شده. صادقانه بگویم، از همان نگاهِ اول به دلم نشست».

دوریس ۱۰ ماه با ما زندگی کرد. درکُل پرستار خوبی بود؛ خوش‌رُو، قابلِ‌اعتماد و دست‌به‌کمک. هیچ چیزِ غیرعادی‌ای در او وجود نداشت، البته به‌جز غیبت‌های بی‌دلیلش در بعضی از آخرِ هفته‌ها.

همان موقع‌ها، همسایه‌مان، خانواده لوکزامبورگ، زنِ خدمتکاری داشتند که دوریس زمانِ زیادی را با او می‌گذراند. یک روز بعدازظهر، آقای لوکزامبورگ به خانه ما آمد و گفت که متوجه شده که خدمتکارشان با یک شبکه فروش مواد مخدر در ارتباط است. «آن‌ها حتی در یک سرقت مسلحانه هم دست داشته‌اند». پدرم بعدها فهمید که «دوریس هم راننده فرارشان بوده». بعدتر کاشف به عمل آمد که برای ماشینِ فرار هم از وُلوو-استیشنِ خانوادگیِ ما استفاده کرده بودند.

والدینم تصمیم گرفتند اتاقِ دوریس را بگردند. یک جعبهکفش زیرِ تختش پیدا کردند که پُر بود از دسته‌های ارزِ خارجی که از دفترکارِ خانگیِ والدینم دزدیده بود. پدرم تمامِ شب درحالی که کمی هم ترسیده بود، با یک چوب بیس‌بال پشتِ در کشیک می‌داد تا دوریس برگردد. شکر خدا هیچ‌وقت پیشِ ما برنگشت.

مادرم می‌گوید: «حتی یادآوریِ این ماجرا هم حالم را بد می‌کند. من شما را سپرده بودم به یک مجرمِ خطرناک و خیلی طول کشید تا بفهمیم که او واقعاً کیست». اگر به گذشته برمی‌گشتید چه‌کار می‌کردید؟ «ای کاش بیشتر درباره او تحقیق می‌کردم».

والدینِ من درکل آدم‌های منطقی و باهوشی بودند. آیا اگر امروز بود، باز هم آن‌ها در این دنیای به‌هم‌متصلِ دیجیتالی، آن اشتباه را مرتکب می‌شدند؟ احتمالاً نه. دسته جدید و روبه‌رشدی از شرکت‌های فناورانه هستند که قرار است به ما کمک کنند تا تصمیم بگیریم به چه‌کسی می‌توان اعتماد کرد و به چه‌کسی نمی‌توان: یک پرستارِ بچه را استخدام کنیم یا نه، خانه‌مان را به فردی اجاره بدهیم یا نه، یا سوارِ یک تاکسی بشویم یا نه. فناوریْ امروزه بیش از هر زمان دیگری می‌تواند تشخیص دهد که ما چگونه کسانی هستیم. آیا الگوریتمی هست که بتواند بهتر از ما تشخیص دهد که چه کسی آدم‌حسابی و چه کسی غیرقابلِ اعتماد است؟

•••

در یک صبح سرد پاییزی، سری زدم به دفترکارِ ساده شرکت ترولی ۱ در لوس‌آلتوس، شهری بی‌حال و دورافتاده در شمالِ سیلیکون‌ولی. ساوی باوِجا، مدیرعاملِ ترولی، درحالی که سعی داشت به من نشان دهد که این اعتمادسنج ۲ های جدید تاچه‌حد توانمند هستند، با لبخندِ ترغیب‌کننده‌ای گفت: «نظرت چیست که یک‌بار نرم‌افزارِ ترولی را روی خودِ تو اجرا کنیم تا ببینیم چه نشانمان می‌دهد؟»

همین‌طور که سرخ شده بودم، تمام کارهای زشت یا شرم‌آوری که تا‌به‌حال مرتکب شده بودم را با خودم مرور کردم. جریمه‌های متعددِ توقف‌ ممنوع و سرعتِ غیرمجاز؟ وب‌سایت‌های ناجوری که در آن وقت گذرانده بودم (البته منظورم برای اهدافِ پژوهشی است)؟ یا عکس‌های قدیمی؟

خنده عصبی‌ام را که دید گفت: «نگران نباش. اگر بخواهی می‌توانیم برنامه را روی آن نمایشگرِ بزرگ بیاندازیم تا مراحلِ کار را به‌طور هم‌زمان ببینی». پیشنهادش خیلی هم اعتمادجلب‌کن نبود.

آنیش داس سارما، معاون فنی ترولی و پژوهشگر ارشد سابق گوگل، نام و نام‌خانوادگی و سپس ایمیلِ من را در نرم‌افزاری به نام «اینستَنت تراست» وارد کرد. و تمام. نه تاریخ تولد، نه شماره موبایل، نه شغل و نه نشانی.

باوِجا برایم توضیح داد: «الآن نرم‌افزارِ یادگیریِ ماشینی، داده‌کاوی را برروی سه منبعِ مختلف از داده‌های عمومی و مجوزدار انجام خواهد داد. در ابتدا، رکوردهای عمومی مثلِ گواهی‌های‌ تولد و ازدواج، فهرست افراد تحت تعقیب برای پول‌شویی و فهرست متجاوزان جنسی بررسی می‌شوند. ما به تمام اطلاعات ثبت‌شده سراسری که دسترسیِ عمومی داشته و دیجیتالی شده باشند دسترسی داریم». بعد از آن نوبت به یک خزنده ۳ فوقِ متمرکز می‌رسد که جستجو در وبِ پنهان ۴ را برعهده دارد: «وبِ پنهان هم بخشی از اینترنت است، اما مخفی است و صفحاتِ آن به‌وسیله موتورهای جستجوی عادیْ نمایه‌گذاری نمی‌شود». پس چه‌کسی از آن استفاده می‌کند؟ «انجمن‌های نفرت‌پراکنی، پِدوفیل‌ها و قاچاقچیانِ اسلحه. آن بخش از اینترنت، محل زندگیِ آدم‌های ناجور است ۵ ».

آخرین منبع هم رسانه‌های اجتماعی مثلِ فیسبوک و اینستاگرام‌اند. به رکوردهای رسمیِ پزشکی هم دسترسی نداریم. بااین‌حال، اگر در توییتر بنویسید «عملِ سختی روی کمرم انجام دادم»، این مورد هم از لحاظِ قانونی داده مجاز تلقی شده و ما از آن استفاده می‌کنیم. باوِجا و تیمش ۹ ماه را صرفِ سبک‌سنگین‌کردنِ داده‌های مختلف کردند تا تصمیم بگیرند کدامشان را باید و کدامشان را نباید به کار بگیرند. داده‌های مربوط به افرادِ زیر سنِ قانونی هم کنار گذاشته می‌شود. او می‌گوید: «در بعضی از کشورها تفاوت میان اطلاعات ’خصوصی‘ و اطلاعاتِ ’خصوصیِ حساس‘ در قانون مشخص شده است. این دومی مواردی چون اطلاعاتِ پزشکی، نژادی، مذهبی، عضویت در اتحادیه‌ها و مواردی از این دست را شامل می‌شود. ما به‌طور جدی حواسمان به این اطلاعاتِ حساسیت‌برانگیز هست و آن را خطِ قرمز خود می‌دانیم».

بعد از حدود سی ثانیه، نامه اعمالِ من آماده شد. «اینجا را ببین، تو یک شدی!» پرونده‌ها را از یک تا پنج رتبه‌دهی می‌کنند که یک به‌معنیِ قابلِ‌اعتمادترین است. «فقط حدود ۱۵ درصد از مردمْ یک می‌شوند. این‌ها ’فوقِ خوب‌ها‘ هستند».

نفسِ راحتی کشیدم و تاحدی هم به خودم افتخار کردم. چه تعداد «فوقِ بد» داریم؟ «در کشورهایی که تحتِ پوششِ ما هستند، ازجمله آمریکا و انگلیس، حدود یک تا دو درصد از مردم رتبه‌ای بینِ چهار و پنج می‌گیرند».

باوِجا پیش‌ازاین یکی از شرکای شرکتِ مشاوره «بایْن‌ اند کامپِنی» بود. یکی از کِش‌دارترین پرونده‌هایش مربوط به یک «بازارگاهِ ۶ اینترنتی معروف» بود. آنجا بود که برای اولین‌بار توجهش به اهمیتِ اعتماد در دنیای دیجیتال جلب شد. او می‌گوید: «آن‌ها مجبور بودند شش درصد از کلِ بودجه‌شان -معادل صدها میلیون دلار- را برای رفع‌ورجوع کردنِ مشکلات رخ‌داده در بازارگاه خرج کنند. آنجا بود که فهمیدم سیستمِ امتیازدهیِ ستاره‌ای در محیط‌های آنلاین تاچه‌حد در جلوگیری از مشکلاتِ پرتعدادِ این‌چنینی ناکارآمد است».

در همان دوره، همسرِ باوِجا یک مطبِ دندان‌پزشکیِ جمع‌وجور راه انداخته بود. مردم از پول‌دادن امتناع می‌کردند یا تهدید می‌کردند که در اینترنت نظرِ منفی می‌گذارند. آخرِ هفته‌ها هم عده‌ای زنگ می‌زدند و مسکن‌های اعتیادآور می‌خواستند. او می‌گوید: «چیزی که تجربه کردم این بود که کسب‌وکارهای کوچک، در مقایسه با کسب‌وکارهای بزرگ، خیلی کمتر نسبت به مشتریانشان شناخت دارند. جالب نبود اگر این کسب‌وکارها به طریقی می‌توانستند مشتریانِ بالقوه بدِ خود را کنار بگذارند؟».

نرم‌افزارِ ترولی، برای محاسبه نمره اعتمادپذیریِ من، در کمتر از سی ثانیه بیش از سه میلیارد صفحه را از حدود ۸ هزار وب‌سایت زیرورو کرد. داده‌ها در سه دسته گردآوری شدند. دسته اول که پایه‌ای‌ترین دسته است، هویتِ من را بررسی کرد. آیا من همانی هستم که ادعا می‌کنم؟ کار جالبی که برای این منظور انجام می‌دهند این است که مندرجاتِ وب‌سایت شخصی‌ام را با پرونده دانشگاهی‌ام مقایسه می‌کنند. دسته دوم داده‌هایی است که فعالیت‌های غیرقانونی، پرخطر یا کلاه‌برداری‌ها را غربال می‌کند. اما سومین دسته از همه جالب‌تر است. داده‌هایی که «سه‌گانه سیاه» را در من اندازه‌گیری می‌کنند، سه صفتِ شخصیتیِ سنگ‌دلانه‌ که در افرادِ کلاه‌بردار دیده می‌شود: خودشیفتگی (خودخواهی به‌همراه ولع زیاد برای جلبِ‌توجه)، شخصیتِ ضداجتماعی (فقدانِ حسِ همدردی و عذابِ وجدان) و ماکیاولیسم (زورگوییِ همراه با بی‌اخلاقی). متاسفانه باوِجا امتیازِ تفکیک شده‌ام را به من نداد، به هرحال همین‌که سربلند بیرون آمدم جای شکرش باقی است.

نرم‌افزارِ ترولی، دو سال پیش، به‌عنوانِ «تعیین‌کننده قابلِ‌اعتماد بودن و سازگاری‌پذیریِ اشخاص» در آمریکا ثبت اختراع شد. الگوریتم این برنامه طوری طراحی شده است که صفاتِ شخصیتیِ پنج‌گانه موسوم به «پنجِ بزرگ» ۷ را هم اندازه‌گیری می‌کند -باز بودن [دربرابرِ تجربه‌های جدید]، وظیفه‌شناسی، برون‌گرایی، دلپذیر بودن و روان‌رنجوری- این ارزیابی به‌عنوانِ یکی از روش‌های کلیدیِ شخصیت‌سنجی در دهه هشتاد به‌طور گسترده مورد توافق پژوهشگران قرار داشت. به گفته باوِجا: «ترولی، مدل‌های پیچیده‌ای را برای پیش‌بینیِ این صفات توسعه داده است. مدل‌هایی که از صدها ویژگیِ موجود در ردپای آنلاین افراد استفاده می‌کنند. برایمان جالب بود که با استفاده از ردپای آنلاینِ یک فرد می‌توان رفتارِ عصبی یا گستاخانه او در آینده را پیش‌بینی کرد. کسی که در حسابِ توییترش آدمی خودبین و بددهن است احتمالِ بیشتری دارد که فردی ضداجتماع باشد».

یادم است وقتی ۱۸ سال داشتم یک‌بار با پدرم بحثم شد. یک پِژوی دستِ‌دومِ تروتمیز در سایت «ای‌بِی» پیدا کرده بودم، اما پدرم معتقد بود که چون اسمِ مستعارِ فروشندهْ جادوگرِ نامرئی است، نمی‌تواند آدمِ قابلِ‌اعتمادی باشد. آخرِ سر هم به‌جای خرید از سایت مجبورم کرد که به نمایشگاهِ محل برویم.

این روزها، حتی پدرِ محافظه‌کارِ من هم یک‌جورهایی معتادِ «ای‌بِی» شده است. درکلِ جامعه هم ما هر روز بیشتر از قبل از فناوری برای تعاملاتِ شخصیِ صمیمانه‌تر استفاده می‌کنیم و خیلی وقت‌ها این تعاملات با افرادی کاملاً غریبه انجام می‌شود. خواه برای اجاره دادنِ خانه یا ماشینمان، خواه برای پیداکردنِ عشقِ جدید یا پرستارِ بچه از اینترنت. بااین‌حال وقتی برای اولین بار در اینترنت با یک‌نفر ارتباط برقرار می‌کنید، از کجا می‌فهمید که طرفْ خطرناک است یا نه؟ همان کسی هست که ادعا می‌کند یا نه؟ یا حتی اصلاً آن‌طرفِ قضیه یک آدمِ واقعی نشسته است؟

این‌ها سوالاتی است که جوابش را باید از شرکت‌هایی مثل «اربِن سیتر» بپرسیم. این وب‌سایتِ آمریکایی، خانواده‌ها را به پرستارهای بچه مرتبط می‌کند و تاکنون در آن ۳۵۰ هزار پدر و مادر از خدماتِ ۳۰۰ هزار پرستارِ بچه بهره‌مند شده‌اند. مثل خیلی از خدماتِ آنلاین، مردم برای ورود به سیستم باید از حساب‌های فیسبوک یا لینکداینِ خود استفاده کنند. درنتیجه، طبق گفته بنیان‌گذارِ ۴۳ساله‌اش لین پِرکینز: «در زمانِ استخدام‌کردن، می‌توانید ببینید چند نفر از ’دوستانتان‘ قبلاً این پرستارِ بچه را به خدمت گرفته، یا به طریقی با او در ارتباط بوده‌اند».

پرستارها و والدین، هر دو پروفایل‌های کاملی برای خود ایجاد می‌کنند. مقدار و نوعِ جزئیاتی که کاربرها به‌صورتِ داوطلبانه اظهار می‌کنند حیرت‌انگیز است. پرکینز به یاد می‌آورد که: «یکی از والدین توضیحات مفصلی راجع به خوک‌های خانگی‌شان ارائه کرده بود. آن‌ها می‌خواستند مطمئن شوند که پرستارِ بچه‌شان با خوک به‌عنوانِ حیوانِ خانگی مشکلی ندارد. این کار هرچند عجیب به‌نظر می‌رسد، اما سطحِ بالایی از مدیریت انتظارات به‌حساب می‌آید.»

آخرین سطحِ خدمات امنیتی هم به‌وسیله ترولی و رقبای دیگرش مثل چِکر ارائه می‌شود. اینکه آیا این پرستار واقعاً مدرکِ کودک‌داری از دانشگاه ساوث تِمز دارد؟ آیا معمولاً از الفاظِ نامناسب در اینترنت استفاده می‌کند؟ آیا قبلاً برای او سابقه سوءاستفاده جنسی ثبت شده است؟

تنها ۲۵ درصد از پرستارانی که فرایند ثبت‌نام را آغاز می‌کنند، اسمشان روی سایت می‌رود. ۷۵ درصدِ بقیه یا درخواستشان رد می‌شود، یا خودشان منصرف می‌شوند چراکه نمی‌خواهند یا نمی‌توانند از هفت‌خوانِ ثبت‌نام عبور کنند.

حتی در چنین فضاهای جسورانه‌ای هم مواردی از خطا وجود داشته و خواهد داشت، بااین‌حال تقریباً محال است که بتوانید تعدادِ دقیقِ رخدادهای ریزودرشت ناگواری که در این پلتفرم‌ها اتفاق ‌می‌افتد را از زیر زبان کارآفرینانی مثل پِرکینز بیرون بکشید. او همواره خواهد گفت: «اتفاقات ناگوار وجود دارد، اما بسیار نادر است».

•••

در ماه ژوئن، شرکت اِیر بی‌اِن‌بی (اجاره‌دهنده مکان‌های تفریحی و اقامتی)، شرکت ترولی را به قیمت نامعلومی خرید. این کار بخشی از سرمایه‌گذاریِ آن‌ها در حوزه رفعِ ایراد بود. آن‌ها افرادی چون نیک شاپیرو، نایب‌رئیسِ سابقِ ستاد در سازمان سی‌آی‌اِی را به خدمت گرفتند. شاپیرو در سال ۲۰۱۵ کارش را در ایر بی‌اِن‌بی به‌عنوانِ مدیر واحد مدیریتِ ریسک و اعتماد آغاز کرد. او می‌گوید: «به‌دست‌آوردن اعتماد و حفظ‌کردنِ آن همیشه جزء مهمی از هر جامعه وظیفه‌محور بوده است. چیزی که تغییر کرده است مکان و روشِ ردوبدل شدنِ این اعتماد است. مردم به‌جای اینکه سازمان‌ها و کسب‌وکارهای بزرگ یا رسانه‌ها و نهادهای دولتی را نمادِ اعتماد بدانند، بیش‌ازپیش به یکدیگر اعتماد می‌کنند».

بخشی از شرحِ وظایفِ او این است که بفهمد وقتی کارها از روالِ عادی خارج می‌شود، ایر بی‌اِن‌بی چگونه باید به شرایط واکنش نشان دهد.‌ شرایطی مثلِ موردِ دیوید کارتر، کسی که در مارس ۲۰۱۴ آپارتمان لوکسی در نیویورک را برای یک آخر هفته اجاره کرد. او به صاحب‌خانه، آری تِمان، گفته بود که برادرش به همراه همسرِ خود به یک عروسی دعوت شده‌اند و او دنبالِ جایی است که آن‌ها بتوانند مدتی که در این شهر هستند را در آنجا اقامت کنند. بعداً کاشف به عمل آمد که «همسرهای» برادرش درواقع مهمان‌های یک مهمانیِ مختلطِ آن‌چنانی با حضورِ «زنانِ چاقِ زیبا» و حیواناتِ عروسکی بوده‌اند. تِمان برای برداشتنِ چمدانی که جا گذاشته بود به خانه برگشت و تازه متوجه شد که خانه‌اش را کرده‌اند محل برگزاری یک مهمانیِ مناسب برای رده سنیِ ایکس.

کارتر در سایت ایر بی‌اِن‌بی یک حسابِ‌کاربری تاییدشده داشت و تعدادی نظرات مثبت هم برایش ثبت شده بود. شاپیرو معتقد است: «ما وظیفه داریم به عقب برگردیم و ببینیم آیا می‌توانستیم کارها را جور دیگری انجام دهیم، آیا قصوری از ما سر زده است؟» به‌عبارت دیگر، باید ببینید چطور می‌توانیم امثالِ کارترها را از بازی حذف کنیم.

باوِجا می‌گوید: «به‌راحتی می‌توانستید آنچه قرار است اتفاق بیافتد را پیش‌بینی کنید. نیازی نبود به عمقِ روانِ او نفوذ کنید تا متوجه شوید این مردک کارش ترتیب‌دادن مهمانی‌های غیراخلاقی است». جستجوی ساده ایمیلِ کارتر در گوگل ما را به تبلیغات آنلاین رویدادهایی از این دست می‌رساند: دورهمیِ شماره دو شامل مراسم ربودنِ زیرشلواری و مهمانی زنان چاق زیبا. حتی یک نفر هم در توییتی برای یک «جشنِ خفنِ ایکس‌ایکس‌ایکس» نشانی آن خانه را داده بود.

باوِجا می‌گوید: «با دیدن پروفایل کاربری او سَرنام‌های جدیدی یادگرفتم که حتی از فکرکردن درباره آن‌ها هم خجالت می‌کشم».

داستانِ دوریس را برای باوِجا تعریف کردم. آیا اگر دوریس در اربِن‌سیتِر درخواست داده بود، می‌توانستیم با جستجو مچش را بگیریم؟ قاعدتاً بله. آن موقع والدینم می‌فهمیدند که او عضو سپاه رستگاری نیست، تجربه‌ای در مراقبت از کودکان ندارد و سوابق مجرمانه پراکنده‌ای هم در پرونده‌اش ثبت شده است. بااین‌حساب، دوریس هرگز حدِ نصاب لازم را کسب نمی‌کرد.

•••

آیا ما باید از این الگوریتم‌های جدید استقبال کنیم؟ باوِجا و شاپیرو مسئولتشان را درقبالِ تصمیم‌گیری‌های اخلاقی پذیرفته‌اند و آن‌ها را به کُدهای کامپیوتری تبدیل کرده‌اند. حاضریم چه میزان از داده‌های شخصیمان برای این منظور زیرورو شود؟ و چه‌قدر می‌توانیم با اینکه یک الگوریم اجازه داشته باشد درباره قابلِ‌اعتماد بودنِ آدم‌ها قضاوت کند کنار بیاییم؟

وقتی در آزمونِ ترولی شرکت کردم مدام نگران بودم که نکند «خطاها»ی کوچکی که در گذشته‌های دور مرتکب شده بودم امروز علیه‌ام استفاده شود. آیا شرکت‌ها خطاهای این‌چنینی را هم جایی ثبت کرده‌اند؟

شاپیرو تاکید می‌کند که: «هیچکس دوست ندارد قضاوت شود، چه به‌وسیله یک انسان چه به‌وسیله یک روبات، اما غربالگریِ ما ربطی به این مسائل ندارد. ما دنبالِ خطرهای مهم هستیم. چیزهایی مثل عضویت در گروه‌های نفرت‌پراکن، سابقه جرایم خشن یا جعلِ هویت. اینکه قبلاً یک توییت احمقانه نوشته‌اید یا برای توقف‌ ممنوع جریمه شده‌اید، به ما ارتباطی ندارد».

بااین‌حال، همین چیزهای کوچک ممکن است روی یک کارفرما تاثیر بگذارد. استخدام‌کننده‌ها به‌طور روزافزون از ردپاهای دیجیتال و یادگیریِ ماشینی برای غربال‌کردن متقاضیان استفاده می‌کنند. ابزارهای استخدامی از قبیل بیلانگ، تال‌ویوو و دِ سوشال ایندکس، محصولاتی را ارائه کرده‌اند که داده‌های آنلاین را گردآوری و تحلیل می‌کند و مشخص می‌کند که آیا یک متقاضی با فرهنگِ شرکتی که می‌خواهد در آن استخدام شود «انطباق» دارد یا نه.

سوال‌های دیگری هم مطرح است. برای مثال خروجی الگوریتم‌ها درباره «ارواحِ دیجیتال» چه خواهد بود؟ افرادی مثل شوهرِ من که هیچگاه گذرشان به توییتر و فیسبوک و لینکداین نیفتاده است. آیا «قُطر کم پرونده»، بررسی قابل‌اعتماد بودنشان را با مشکل مواجه می‌کند؟

باوِجا تایید می‌کند که «برای ۱۰ تا ۱۵درصد از مردم نمی‌توانیم نمره اعتماد صادر کنیم. به‌این‌علت که یا ردپای دیجیتالشان ناچیز است یا اینکه ورودیِ دقیق برایشان کم داریم.»

شاپیرو می‌گوید: «در سایت‌هایی مثل ایر بی‌اِن‌بی، گمنام بودم لزوماً به ضررتان تمام نمی‌شود. ما دنبالِ اطلاعاتِ منفی درباره افراد می‌گردیم و فقدانِ چنین اطلاعاتی به نفع شماست.»

در دنیایی که با چند ضربه روی صفحه گوشی می‌توانیم یک قرارِ عاشقانه بگذاریم، یا اینترنتی می‌توانیم کسی را پیدا کنیم که نشتیِ لوله‌ها را تعمیر کند یا ما را به خانه برساند، اعتمادِ آنلاین سریع‌تر، هوشمندتر و فراگیرتر شده است. بار اولی که اطلاعات کارت بانکی‌مان را در یک وب‌سایت وارد کردیم یا کسی را در سایتِ دوست‌یابیِ تیندر یافتیم، به‌نظرمان کمی عجیب، یا حتی ترسناک می‌آمد، اما این کارها خیلی زود عادی شدند. آیا فناوری قادر است تمامِ خطراتِ تعامل با غریبه‌ها را ازبین ببرد؟

پرکینز از اربِن سیتِر در جواب می‌گوید: «به‌هیچ وجه». انسان‌ها ازنظر اخلاقی موجوداتِ پیچیده‌ای هستند و اینکه خودمان را کلاً از قضیه‌کنار بگذاریم به‌نظر احمقانه می‌آید. «اگر یک پرستارِ بچه را در سایت دیدید و حسِ عجیبی نسبت به او داشتید، مهم نیست که او در آزمون‌ها قبول شده است، مهم نیست که چه‌قدر نظراتِ مثبت درباره‌اش نوشته‌اند یا چه چیزهای خوبی در اینترنت از او خوانده‌اید، به ندای قلبتان گوش بدهید و قرارتان را با او لغو کنید.»

اگر هنوز تصمیم‌گیری درباره اینکه به چه کسی می‌توان اعتماد کرد مسئله‌ است، باید بدانیم که الآن در جایگاه بهتری برای پرسیدنِ سوال‌های درست و یافتن اطلاعات درست هستیم. به‌عبارتِ دیگر احتمالش خیلی کمتر است که یک موادفروش با سابقه سرقت از بانک را به‌جای پرستارِ بچه استخدام کنیم.

این مطلب را ریچل باتسمن نوشته است و در تاریخ ۷ اکتبر ۲۰۱۷ با عنوان «Who do you trust? How data is helping us decide» در وب‌سایت گاردین منتشر شده است. وب‌سایت ترجمان آن را در تاریخ ۱۲ مرداد ۱۳۹۹ با عنوان «آیا فناوری از «آدم‌شناسی» غریزی ما پیشی خواهد گرفت؟» و ترجمه بابک حافظی منتشر کرده است.

لینک اصل خبر در سایت پارک علم و فناوری کردستان

منبع خبر

پارک علم و فناوری کردستان

پارک علم و فناوری کردستان

پارک علم و فناوری کردستان یک پارک علم و فناوری در شهر سنندج می باشد

    نظرات