احتمالا شنیدهاید که چطور برنامه آماری «نیت سیلور» در انتخابات ریاست جمهوری 2012 آمریکا آرای الکترال هر کدام از ایالات این کشور را پیشبینی کرد و این واقعیت را به اثبات رساند که پردازش دادههای خام حوزههای رایگیری به مراتب قابل اطمینانتر از نظرسنجیهای سنتی است. اما احتمالا نشنیدهاید که چطور تیم انتخاباتی باراک اوباما رئیسجمهور آمریکا یک گروه زبده متشکل از یکصد تحلیلگر حاذق را تشکیل داد تا با تلفیقی از پایگاه دادههای تحلیلی HP Vertica (پردازش موازی انبوه) در یک سو و الگوهای پیشبینیکننده در سوی دیگر دهها ترابایت دادهها را زیر و رو کنند و بتوانند گوی سبقت را از رقیب بربایند. اعتبار استفاده از بزرگ دادههامتعلق به «جیم مسینا» مدیر کمپین انتخاباتی باراک اوباماست که تصمیم گرفت مستقیم وارد یک مبارزه انتخاباتی مبتنی بر تحلیل دادهها شود. مسینا در جایی گفته بود:«ما میخواهیم در مورد هر چیزی تقاضای داده کنیم، ما میخواهیم هر چیزی را اندازه بگیریم، ما میخواهیم یک تیم تحلیلی را در داخل خود ایجاد کنیم که در هر زمانی در مورد ما تحقیق کند و اطمینان حاصل کند که ما حواسمان به همه چیز هست.» اعضای تیم انتخابات اوباما برای کسب اطمینان از اینکه همه چیز را میتوان اندازهگیری کرد مدام درباره اینکه آیا دادههای مرتبط را وارد کردهاند یا خیر، ارزیابی میشدند. شعار آنها این بود:«اگر دادهها را وارد نکنید، کار خود را درست انجام ندادهاید.» پاهایی در واقعیت در میان یکصد تحلیلگر تیم اوباما، 50 نفر در واحدی کار میکردند که مختص تحلیل دادهها بود. از 50 نفر دیگر 20 نفر در دفاتر مختلف ستادهای انتخاباتی فعالیت میکردند و 30 نفر نیز درگیر کسب و تفسیر دادههای میدانی بودند. «کریس وگرزین» مدیر ساختار دادههای کمیته ملی حزب دموکرات این چالش را در حکم فرصتها و مسیرهایی میدانست که برای داشتن یک راهکار انتخاباتی تحلیلی ضروری هستند. وگرزین خاطرنشان میکرد که...