تجزیه و تحلیل داده ها

تجزیه و تحلیل داده ­ها فرآیندی است که به طور سیستماتیک از تکنیک­ های آماری و یا منطقی برای توصیف و تشریح، فشرده سازی و جمع بندی و ارزیابی داده­ ها استفاده می ­شود. طبق گفتهShamoo  و Resnik ، روش‌های تحلیلی مختلف «راهی برای استنتاج استقرایی از داده‌ها و تمایز سیگنال (پدیده مورد نظر) از نویز (نوسانات آماری) موجود در داده‌ها ارائه می‌کند.
در حالی که تجزیه و تحلیل داده­ ها در تحقیقات کیفی می­ تواند شامل رویه های آماری باشد، اغلب اوقات تجزیه و تحلیل به یک فرآیند تکراری مداوم تبدیل می ­شود که در آن داده ­ها به طور مداوم جمع آوری و تقریباً به طور همزمان تجزیه و تحلیل می­ شوند. در واقع، محققان به طور کلی الگوهای مشاهدات را در کل مرحله جمع آوری داده ­ها تجزیه و تحلیل می­ کنند. شکل تحلیل با رویکرد کیفی خاص (مانند مطالعه میدانی، تجزیه و تحلیل محتوای قوم نگاری، تاریخ شفاهی، زندگی نامه، تحقیقات محجوب) و شکل داده ­ها (از قبیل یادداشت های میدانی، اسناد، نوار صوتی، نوار ویدئویی) تعیین می شود.

یکی از اجزای اساسی تضمین یکپارچگی داده­ ها، تجزیه و تحلیل دقیق و مناسب یافته­ های تحقیق است. تحلیل­ های آماری نامناسب یافته ­های علمی را تحریف می­ کند، خوانندگان معمولی را گمراه می ­کند، و ممکن است بر درک عمومی از تحقیق تأثیر منفی بگذارد. مسائل یکپارچگی به همان اندازه به تجزیه و تحلیل داده­ های غیرآماری مربوط می ­شود.

مسائلی وجود دارد که محققان باید با توجه به تجزیه و تحلیل داده­ ها از آنها آگاه باشند. که شامل:

داشتن مهارت­ های لازم برای تحلیل

انتخاب همزمان روش­ های جمع آوری داده­ ها و تحلیل مناسب

استنتاج بی طرفانه

تجزیه و تحلیل نامناسب زیرگروه

پیروی از هنجارهای قابل قبول برای رشته­ ها

فقدان اندازه‌گیری‌های نتیجه مشخص و عینی

ارائه تحلیل درست  و دقیق

نحوه ارائه داده­ ها

مسائل محیطی

روش ثبت اطلاعات

پارتیشن بندی «متن» هنگام تجزیه و تحلیل داده­ های کیفی

آموزش لازم تجزیه و تحلیل کنندگان

قابلیت اطمینان و اعتبار

وسعت تحلیل

داشتن مهارت­ های لازم برای تحلیل

رویه رایج محققان این است که انتخاب روش تحلیلی را به یک تیم تحقیقاتی «آمارشناس» موکول کنند. در حالت ایده‌آل، محققین باید به طور قابل ملاحظه‌ای درک اساسی بیشتری از منطق انتخاب یک روش تحلیل نسبت به روش دیگر داشته باشند. این امر به بازرسان اجازه نظارت بهتر بر کارکنانی که فرآیند تجزیه و تحلیل داده­ ها را انجام می­ دهند و تصمیمات آگاهانه­ ای می­ گیرند، می ­دهد.

انتخاب همزمان روش ­های جمع آوری داده ­ها و تحلیل مناسب

در حالی که روش­ های تجزیه و تحلیل ممکن است بر اساس رشته ­های علمی متفاوت باشد، مرحله بهینه برای تعیین روش ­های تحلیلی مناسب در اوایل فرآیند تحقیق رخ می­ دهد و نباید یک فکر بعدی باشد. بر اساس نظر اسمیتون و گودا، توصیه­ های آماری باید در مرحله برنامه ریزی اولیه تحقیق به دست آید تا به عنوان مثال، روش نمونه ­گیری و طراحی پرسشنامه مناسب باشد.

استنتاج بی طرفانه

هدف اصلی تجزیه و تحلیل، تمایز قائل شدن بین رویدادی است که به‌عنوان بازتاب یک اثر واقعی در مقابل یک اثر نادرست رخ می‌دهد. هرگونه سوگیری در جمع آوری داده ­ها یا انتخاب روش تجزیه و تحلیل، احتمال استنتاج مغرضانه­ ای را افزایش می دهد.

تجزیه و تحلیل نامناسب زیر گروه

هنگامی که نمی‌توان سطوح مختلف آماری را بین گروه‌ها نشان داد، محققان ممکن است برای یافتن تفاوت، تجزیه و تحلیل را به زیرگروه‌های کوچک‌تر و کوچک‌تر تقسیم کنند. اگر یک مطالعه ماهیت اکتشافی دارد، محقق باید این موضوع را به صراحت بیان کند تا خوانندگان بفهمند که تحقیق اساساً مبتنی بر نظریه نمی باشد. اگرچه ممکن است محقق فرضیه‌ای مبتنی بر یک نظریه برای آزمایش روابط بین متغیرهای آزمایش‌نشده قبلی نداشته باشد، اما باید نظریه‌ای برای توضیح یک یافته غیرمنتظره ایجاد کند. در واقع، در علم اکتشافی، هیچ فرضیه پیشینی وجود ندارد، بنابراین هیچ آزمون فرضی وجود ندارد. نظریه‌ها اغلب می‌توانند فرآیندهای مورد استفاده در بررسی مطالعات کیفی را هدایت کنند، اما بسیاری از اوقات الگوهای رفتاری یا رویدادهایی که از داده‌های تحلیل‌شده به دست می‌آیند می‌توانند به جای تعیین قبلی، منجر به توسعه چارچوب‌های نظری جدید شوند.

می‌توان تصور کرد که آزمون‌های آماری متعدد می‌توانند به‌تنهایی به‌جای انعکاس یک اثر واقعی، یافته‌های مهمی را به‌طور تصادفی به دست آورند. اگر محقق فقط آزمایش‌هایی را با یافته‌های قابل توجه گزارش کند و از ذکر تعدادی از آزمایش‌هایی که در رساندن معنا ناکام مانده‌اند غفلت کند، صداقت به خطر می‌افتد. در حالی که دسترسی به بسته‌های آماری مبتنی بر رایانه می‌تواند کاربرد روش‌های تحلیلی پیچیده‌تر را تسهیل کند، استفاده نامناسب از این بسته‌ها نیز می‌تواند منجر به سوء استفاده شود.

پیروی از هنجارهای قابل قبول برای رشته ­ها

هر رشته تحصیلی شیوه­ های پذیرفته شده خود را برای تجزیه و تحلیل داده­ ها توسعه داده است. رسنیک بیان می ­کند که برای محققین عاقلانه است که از این هنجارهای پذیرفته شده پیروی کنند. او همچنین بیان می‌کند که هنجارها بر دو عامل مبتنی هستند:

۱. ماهیت متغیرهای مورد استفاده (به عنوان مثال، کمی، مقایسه­ ای یا کیفی)،

۲. مفروضات مربوط به جامعه ­ای که داده ها از آن استخراج می­ شوند (یعنی توزیع تصادفی، استقلال، حجم نمونه و غیره).

فقدان اندازه‌گیری‌های نتیجه مشخص و عینی

هیچ مقدار تجزیه و تحلیل آماری، صرف نظر از سطح پیچیدگی، اندازه‌گیری‌ها ، پیامد هدفی را که به درستی تعریف نشده ‌است، اصلاح نمی‌کند. این عمل چه به صورت ناخواسته و چه با طراحی انجام شود، احتمال مخدوش شدن تفسیر یافته‌ها را افزایش می‌دهد، بنابراین احتمالاً خوانندگان را گمراه می‌کند.

ارائه تحلیل صادقانه و دقیق

مبنای این موضوع، فوریت کاهش احتمال خطای آماری است. چالش‌های رایج عبارتند از حذف موارد پرت، پر کردن داده‌های از دست رفته، تغییر داده‌ها، داده‌کاوی، و توسعه نمایش‌های گرافیکی داده‌ها.

نحوه ارائه داد­ه ها

گاهی اوقات، محققین ممکن است با تعیین نحوه ارائه داده ­های مشتق شده (برخلاف داده­ های به صورت خام)، تصور یک یافته مهم را تقویت کنند، کدام بخش از داده ها نشان داده شده است، چرا، چگونه و به چه کسی (شامو، رسنیک و نواک) خاطرنشان می­ کنند که حتی کارشناسان در تمایز بین تجزیه و تحلیل و پاکسازی داده­ ها توافق ندارند. شامو توصیه می ­کند که محققین یک لیست کافی و دقیق از نحوه تغییر داده­ ها برای بررسی آینده داشته باشند.

مسائل محیطی

یکپارچگی تجزیه و تحلیل داده‌ها می‌تواند توسط محیطی که داده‌ها در آن جمع‌آوری شده‌اند، مانند مصاحبه‌های رو در رو  در برابر گروه متمرکز، به خطر بیفتد. تعاملی که در یک رابطه دوتایی (مصاحبه‌گر-مصاحبه‌شونده) رخ می‌دهد، به دلیل تعداد شرکت‌کنندگان و نحوه واکنش آنها به پاسخ‌های یکدیگر، با پویایی گروهی که در یک گروه متمرکز رخ می‌دهد، متفاوت است. از آنجایی که فرآیند جمع‌آوری داده‌ها می‌تواند تحت تأثیر محیط قرار گیرد، محققان باید این را در هنگام انجام تجزیه و تحلیل داده‌ها در نظر بگیرند.

روش ثبت اطلاعات

تحلیل­ ها همچنین می ­توانند تحت تأثیر روشی که در آن داده­ ها ثبت شده است، قرار گیرند. به عنوان مثال، رویدادهای تحقیقاتی را می توان با موارد زیر مستند کرد:

آ. ضبط صدا و یا ویدیو و رونویسی

ب. یک نظرسنجی محقق یا خودگردان

ج. نظر سنجی بسته یا نظر سنجی باز

د. تهیه یادداشت­های میدانی قوم نگاری از یک شرکت کننده/ ناظر

ه. درخواست از خود شرکت کنندگان برای یادداشت برداری، گردآوری و ارائه آنها به محققان.

در حالی که هر روش به کار گرفته شده دارای منطق و مزایایی است، مسائل عینی و ذهنی ممکن است هنگام تجزیه و تحلیل داده ­ها مطرح شود.

پارتیشن بندی متن

در طول تجزیه و تحلیل محتوا، محققان یا «ارایه‌دهندگان» ممکن است از استراتژی‌های متناقض در تجزیه و تحلیل مطالب متنی استفاده کنند. برخی از «ارایه دهندگان» ممکن است نظرات را به طور کلی تجزیه و تحلیل کنند، در حالی که برخی دیگر ممکن است ترجیح دهند مطالب متن را با جدا کردن کلمات، عبارات، بندها، جملات یا گروه هایی از جملات ، تجزیه و تحلیل کنند. هر تلاشی باید برای کاهش یا حذف ناهماهنگی‌های بین «ارایه‌دهنده‌ها» انجام شود تا یکپارچگی داده‌ها به خطر نیفتد.

آموزش کارکنان ( تجزیه و تحلیل کنندگان)

یک چالش بزرگ برای یکپارچگی داده­ ها می­ تواند با نظارتی بدون نظارت بر تکنیک ­های استقرایی رخ دهد. تجزیه و تحلیل محتوا به ارزیاب ­ها نیاز دارد که موضوعاتی را به متن اختصاص دهند. تهدید یکپارچگی ممکن است زمانی ایجاد شود که ارزیا­ب­ ها آموزش متناقضی را دریافت کرده باشند، یا ممکن است تجربه(های قبلی) آموزشی را دریافت کرده باشند. تجربه قبلی ممکن است بر نحوه درک ارزیاب‌ها از مطالب یا حتی درک ماهیت تحلیل‌هایی که قرار است انجام شود، تأثیر بگذارد. بنابراین یک ارزیاب می تواند موضوعات یا کدهایی را به مطالبی اختصاص دهد که به طور قابل توجهی با ارزیاب دیگر متفاوت است. راهبردهای پرداختن به این موضوع شامل بیان واضح فهرستی از روش‌های تحلیل در کتابچه راهنمای پروتکل ها، آموزش مداوم و نظارت معمول ارزیاب‌ها می ­باشد.

قابلیت اطمینان و اعتبار

محققانی که تجزیه و تحلیل‌های کمی یا کیفی را انجام می‌دهند باید از چالش‌های پایایی و اعتبار آگاه باشند. به عنوان مثال، در حوزه تحلیل محتوا، گاتشالک سه عامل را شناسایی می­ کند که می­ توانند بر قابلیت اطمینان داده های تجزیه و تحلیل شده تأثیر بگذارند:

ثبات یا تمایل کدگذارها به کدگذاری مداوم همان داده ها به روشی یکسان در یک دوره زمانی

تکرارپذیری، یا تمایل گروهی از کدنویس ها برای طبقه ­بندی عضویت در دسته ­ها به روشی مشابه

دقت، یا میزان مطابقت طبقه بندی یک متن با یک استاندارد یا هنجار از نظر آماری

پتانسیل به خطر انداختن یکپارچگی داده ­ها زمانی به وجود می آید که محققان نتوانند به طور مداوم ثبات، تکرارپذیری یا دقت تجزیه و تحلیل داده ­ها را نشان دهند.

به گفته گاتشالک، اعتبار یک مطالعه تحلیل محتوا به مطابقت مقوله­ ها (طبقه­ بندی که ارزیاب ­ها به محتوای متن اختصاص می ­دهند) با نتایج، و قابلیت تعمیم نتایج به یک نظریه اشاره دارد.

وسعت تحلیل

پس از کدگذاری مطالب متنی برای تجزیه و تحلیل محتوا، ارزیاب­ ها باید هر کد را در دسته بندی مناسبی از یک ماتریس ارجاع متقابل طبقه­ بندی کنند. تکیه بر نرم افزار کامپیوتری برای تعیین تعداد دفعات یا تعداد کلمات می­تواند منجر به عدم دقت شود. «کسی ممکن است شمارش دقیقی از وقوع و فراوانی آن کلمه به دست آورد، اما حساب دقیقی از معنای ذاتی هر کاربرد خاص نداشته باشد». تحلیل‌های بیشتر ممکن است برای کشف ابعاد مجموعه داده یا شناسایی متغیرهای اساسی معنادار جدید مناسب باشد.

 

چه از روش­ های آماری یا غیرآماری تجزیه و تحلیل استفاده شود، محققان باید از پتانسیل به خطر انداختن یکپارچگی داده­ ها آگاه باشند. در حالی که تجزیه و تحلیل آماری معمولاً بر روی داده­های کمی انجام می­شود، روش­های تحلیلی متعددی وجود دارد که به طور خاص برای مطالب کیفی از جمله تحلیل محتوا، موضوعی و قوم نگاری طراحی شده است. صرف نظر از اینکه فرد پدیده ­های کمی یا کیفی را مطالعه می­کند، محققان از ابزارهای مختلفی برای تجزیه و تحلیل داده­ ها استفاده می­کنند تا فرضیه­ ها را آزمایش کنند، الگوهای رفتاری را تشخیص دهند و در نهایت به سؤالات تحقیق پاسخ دهند. عدم درک یا تأیید مسائل مربوط به تجزیه و تحلیل داده های ارائه شده می­تواند یکپارچگی داده ­ها را به خطر بیندازد.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *