Are SEOs Responsible For Google Search Bias?
2016 में, संयुक्त राष्ट्र ने घोषणा की कि इंटरनेट का इस्तेमाल एक मानव अधिकार है।
यह निर्णय इस समझ पर लिया गया था कि इंटरनेट हर किसी के लिए जानकारी को किफायती रूप से एक्सेस करने और खुद को व्यक्त करने का एक उपकरण है।
इस प्रस्ताव ने बुनियादी ढांचे के संदर्भ में पहुंच के बारे में चर्चा को उभारा, जहां फाइबर केबल स्थापित या अद्यतन किए जाते हैं, या नागरिक अशांति और अन्य आपात स्थितियों के दौरान निर्बाध पहुंच की अनुमति दी जाती है।
हालांकि ये वैध और महत्वपूर्ण बिंदु हैं, इंटरनेट केवल तार और स्क्रीन नहीं है, और एक्सेस की गई जानकारी को एल्गोरिदम के आधार पर बदला जा सकता है।
चूंकि इंटरनेट हमारे जीवन में एकीकृत हो गया है, यह अब हमारे सामाजिक बुनियादी ढांचे (चिकित्सा या शैक्षिक सेवाओं के समान) का हिस्सा है।
यह अच्छी तरह से प्रलेखित है कि देखभाल और देखभाल की गुणवत्ता सहित चिकित्सा और शैक्षिक स्थानों के भीतर पूर्वाग्रह मौजूद हैं, लेकिन खोज परिणामों के बारे में क्या?
क्या वे निष्पक्ष हैं? क्या वे हमारे आसपास की दुनिया के प्रतिनिधि हैं? या वे अच्छे से ज्यादा नुकसान पहुंचा रहे हैं?
एक एल्गोरिदम में क्या है?
डिजिटल मार्केटिंग में, “एल्गोरिदम” एक ऐसा शब्द है जिसे प्रतिदिन इधर-उधर उछाला जाता है, भले ही कोई इसका अर्थ समझे या नहीं। प्रत्येक प्लेटफ़ॉर्म में एक (या एकाधिक) होता है, और हमारा काम उन्हें संतुष्ट करने का प्रयास करना है।
एक एल्गोरिथ्म एक प्रक्रिया है जिसका पालन तब किया जाता है जब कोई सिस्टम गणना कर रहा होता है।
यह प्रक्रिया एक इनपुट लेती है और आउटपुट उत्पन्न करने के लिए सूत्रों, नियमों या अन्य समस्या-समाधान कार्यों का उपयोग करती है।
खोज के लिए, इसका मतलब है कि खोज बॉक्स में दर्ज की गई क्वेरी इनपुट हैं, और SERP (खोज इंजन परिणाम पृष्ठ) आउटपुट है।
यह क्या हो रहा है की एक बहुत ही सरल व्याख्या है। Google अनेक एल्गोरिदम का उपयोग करता है एआई (आर्टिफिशियल इंटेलिजेंस) और . के संयोजन में मशीन लर्निंग.
पूरी प्रणाली को काटना मेरे दायरे से बाहर और इस लेख के उद्देश्य से परे होगा।
SERPs में कैनरी
एक महिला के रूप में, मैं वेबसाइटों, नीतियों और सामान्य रूप से समाज में पक्षपात के लिए कोई अजनबी नहीं हूं।
हर दिन मैं एक चुटकी नमक लेकर दुनिया का चक्कर लगाता हूं। जांच खोज परिणामों में संभावित पूर्वाग्रह कुछ समय से मेरी दिलचस्पी इसमें है, और मैंने 2021 में इस विषय पर शोध करना शुरू किया।
एक मूल शोध परियोजना (पूर्ण प्रकटीकरण: कि मैंने आचरण में मदद की) कहा जाता है हमें सुविधाएँ दें, फूल नहीं पेशेवर फोटोग्राफरों के लिए सामाजिक और खोज परिदृश्य के लिंग पूर्वाग्रह की जांच की।
कई लिंग-तटस्थ प्रश्नों का परीक्षण किया गया, जैसे “सर्वश्रेष्ठ फ़ोटोग्राफ़ी Instagram खाते” या “सर्वश्रेष्ठ फ़ोटोग्राफ़र।”
परिणाम?
महिलाओं को पेशेवर फ़ोटोग्राफ़र के रूप में पुरुषों की तुलना में बहुत कम दिखाया गया था, जो कि 50% पेशेवरों की रचना के बावजूद, समृद्ध परिणामों में और पृष्ठ एक पर सामग्री के भीतर थे।
इन पूर्वाग्रहों के लिए कौन जिम्मेदार है? लेख लिखने वाले लेखक? उन पृष्ठों को पुरस्कृत करने के लिए खोज इंजन? अपने ग्राहक को लेख की सिफारिश करने के लिए एसईओ पेशेवरों?
मेरी आंत प्रतिक्रिया यह है कि जिसने भी एल्गोरिदम बनाया है उसे दोष देना है।
हालांकि यह एक हद तक सही है, यह पूरी कहानी नहीं है और न ही उचित है।
पूर्वाग्रह हमारे मौजूदा सामाजिक ढांचे में निहित हैं, जो हमारी संस्कृति, सरकार और हमारे आसपास की दुनिया के साथ हमारी बातचीत में बुने जाते हैं।
क्या पेजरैंक एल्गोरिथम पक्षपाती है?
2011 में प्रकाशित शोध पहले ही पेजरैंक की निष्पक्षता पर प्रश्नचिह्न लगा चुका है।
मॉडल दिखाते हैं कि जैसे-जैसे वेब बढ़ता है, शीर्ष-रैंकिंग वेबसाइटों की स्थिरता अधिक स्थिर हो जाती है, शेष वेबसाइटों को स्क्रैप के लिए बहस करने के लिए छोड़ दिया जाता है।
नेचर, एक पीयर-रिव्यू जर्नल ने में एक लेख प्रकाशित किया फरवरी 2022 यह देखने के लिए कि क्या यह पक्षपात का परिचय देता है या बढ़ाता है, पेजरैंक एल्गोरिथम की जांच करना।
इसे सबसे सरल शब्दों में कहें तो, शोधकर्ताओं ने पांच संभावित सामाजिक मॉडल बनाए, जिनमें होमोफिली की अलग-अलग डिग्री (“समान दूसरों से जुड़ने की प्रवृत्ति”) थी।
प्रत्येक मॉडल में 20 नोड होते हैं, लेकिन आइए उन्हें वेबसाइटों के रूप में देखें। फिर प्रत्येक वेबसाइट को एक पेज रैंक दिया गया और या तो समाज के भीतर बहुसंख्यक या अल्पसंख्यक के हिस्से के रूप में।
असमानता को गिनी गुणांक (असमानता को मापने के लिए एक सांख्यिकीय विश्लेषण) का उपयोग करके मापा गया था, यह देखने के लिए कि एक समान वितरण के खिलाफ एक व्यक्ति ने कैसे स्कोर किया। शीर्ष खोज परिणामों में अल्पसंख्यकों के प्रतिशत की गणना करके असमानता को मापा गया।
उनके निष्कर्ष बताते हैं कि इस्तेमाल किए गए मॉडल के आधार पर पेजरैंक का एल्गोरिदम पूर्वाग्रह को कम कर सकता है, दोहरा सकता है या बढ़ा सकता है।
उच्च स्तर की समलैंगिकता वाले मॉडल में, प्रमुख आवाजों ने अल्पसंख्यकों का प्रतिनिधित्व करते हुए उन दृष्टिकोणों और पूर्वाग्रहों को कायम रखा।
दूसरी ओर, जब बहुसंख्यक समूह विषमलैंगिक (विभिन्न समूहों में एकत्र होने की प्रवृत्ति) होता है, तो अल्पसंख्यकों का अति-प्रतिनिधित्व होता है।
यह संभावित हस्तक्षेपों या एल्गोरिदम के पूर्वाग्रह में कमी के आसपास भविष्य के शोध के लिए कुछ आधारभूत कार्य करता है।
संस्कृति का प्रतिच्छेदन और Google छवि खोज परिणाम
बहुत सारे शोध से पता चला है कि एल्गोरिदम हो सकते हैं और कई पक्षपाती हैं। जैसा कि पहले चर्चा की गई थी, पैंकरैंक इन पूर्वाग्रहों को बढ़ाने या कम करने के लिए खेल सकता है, लेकिन एल्गोरिदम अकेले कार्य नहीं करते हैं।
Google के उदाहरण में, न केवल कई एल्गोरिदम चल रहे हैं बल्कि एआई और मशीन लर्निंग भी हैं। ये सभी तत्व हमारी (मानव) बातचीत के माध्यम से लगातार विकसित हो रहे हैं।
शोध का एक और अंश जिसे इस वर्ष प्रकाशित किया गया था, जांच की गई थी कि क्या Google छवि खोज परिणामों में सामाजिक लैंगिक असमानताएं मौजूद थीं (स्थानीयकृत खोज एल्गोरिदम के माध्यम से)।
शोधकर्ताओं ने देश के आधार पर लैंगिक असमानता (ग्लोबल जेंडर गैप इंडेक्स के आधार पर) और प्रत्येक देश की संबंधित भाषा में “व्यक्ति” की खोज करते समय (स्थानीय परिणामों तक पहुंचने के लिए वीपीएन का उपयोग करके) Google छवि खोज परिणामों में दिखाई देने वाले पुरुषों का प्रतिशत प्लॉट किया।
अधिक लिंग असमानता वाले देशों में लिंग-तटस्थ कीवर्ड “व्यक्ति” के लिए पुरुषों की अधिक छवियां देखी गईं। उनका दावा है कि यह सामाजिक मानदंडों और एल्गोरिथम आउटपुट के बीच एक कड़ी है।
अध्ययन के दूसरे भाग में देखा गया कि ये पक्षपातपूर्ण परिणाम व्यक्तियों के निर्णय लेने को कैसे प्रभावित कर सकते हैं।
प्रतिभागियों ने निम्न-असमानता और उच्च-असमानता वाले देशों के Google छवि परिणामों के स्क्रीनशॉट देखे और उनसे लिंग और व्यवसाय के बारे में प्रश्न पूछे गए।
विवरण छोड़ना (हालांकि मुझे लगता है कि लेख पढ़ने लायक है), परिणामों से पता चला कि एल्गोरिदम में मौजूद सांस्कृतिक पूर्वाग्रह व्यक्तिगत निर्णय लेने को प्रभावित कर सकते हैं (और करते हैं)।
जब प्रतिभागियों ने निम्न-असमानता वाले देशों से छवि परिणाम देखे, तो उनके परिणाम उच्च-असमानता वाले देशों के परिणामों की तुलना में अधिक समतावादी थे, जहां परिणाम ने लिंग पूर्वाग्रहों को प्रबल किया।
सामाजिक लैंगिक असमानता का स्तर खोज एल्गोरिथम में परिलक्षित होता है, जिससे मुझे आश्चर्य होता है कि यह कितना है। इन तत्वों का संयोजन तब प्रत्येक उपयोग के माध्यम से व्यक्तिगत धारणा को प्रभावित कर रहा है।
SERPs में पक्षपात के लिए कौन जिम्मेदार है?
मैंने इस यात्रा की शुरुआत एक सरल उत्तर की आशा में इसी प्रश्न को पूछकर की थी।
दुर्भाग्य से, ऐसा कोई नहीं है क्योंकि खोज परिणामों में पक्षपात के लिए हम सभी जिम्मेदार हैं। मूल कोडर्स से लेकर लेखकों तक, एसईओ पेशेवरों और लिंक बिल्डरों, और समाज, संस्कृति और पर्यावरण में भी हम मौजूद हैं।
सभी की कल्पना करो एल्गोरिदम आप रोजाना बातचीत करते हैं। यदि उन एल्गोरिदम के संपर्क में आने से दुनिया के बारे में आपकी धारणा प्रभावित होती है, तो यह गड़बड़ हो जाती है, कई इनपुट के तार उलझ जाते हैं।
हम इसे कैसे बेहतर बना सकते हैं?
एक आशाहीन आशावादी के रूप में, मैं आपको इतना भारी बोझ नहीं छोड़ सकता। आइए इस पर चर्चा शुरू करें कि हम खोज और सामग्री को अधिक समावेशी स्थान कैसे बना सकते हैं।
पेजरैंक में पूर्वाग्रहों की जांच करने वाले शोधकर्ताओं ने चर्चा की कि समलैंगिक नेटवर्क प्रतिनिधित्व में असमानताओं को चला रहे थे, अल्पसंख्यक रणनीतिक नेटवर्किंग के माध्यम से इसे दूर कर सकते हैं।
यह उचित समाधान नहीं है, इसलिए उन्होंने इसे लागू करने का सुझाव दिया DPAH (चिंता न करें, मैं विवरण में नहीं जाऊंगा!)
यह मॉडल अल्पसंख्यकों को बहुसंख्यकों के साथ नेटवर्क बनाने की आवश्यकता को समाप्त कर देगा।
अन्य अध्ययन द्वारा मनोविज्ञान-आधारित हस्तक्षेपों का सुझाव दिया गया क्योंकि उन्होंने निष्कर्ष निकाला कि एल्गोरिथम में सामाजिक लैंगिक असमानता परिलक्षित हो रही थी। वे एक अधिक नैतिक एआई का आह्वान करते हैं जो मनोविज्ञान और समाज की हमारी समझ को जोड़ती है।
आमतौर पर एक SEO समर्थक की सबसे बड़ी चिंता यह होती है कि एल्गोरिथम को कैसे अपील की जाए, बजाय इसके कि उनकी समानता या समानता पर सवाल उठाया जाए या हम हानिकारक पूर्वाग्रहों को कैसे कायम रख सकते हैं।
एआई-संचालित एल्गोरिदम की व्याख्या करने के लिए एआई-पावर्ड सॉफ्टवेयर के उपयोग के माध्यम से, एक क्षण ऐसा होना चाहिए जहां हम अपने काम के नैतिक घटक पर सवाल उठाना शुरू कर दें।
वर्तमान में, खोज परिणाम एक न्यायसंगत दुनिया का सटीक प्रतिनिधित्व नहीं कर सकते हैं जब वे हो सकते हैं।
एसईओ पेशेवरों, सामग्री निर्माता और विपणक के रूप में, हम असमान सामग्री को पुन: पेश करने, पहले से ही बड़ी आवाजों की दृश्यता बढ़ाने और हमारे स्थानीय-सांस्कृतिक पूर्वाग्रहों को कायम रखने में बड़ी भूमिका निभाते हैं।
यहां कुछ अन्य सुझाव दिए गए हैं जिनसे मुझे अधिक न्यायसंगत खोज परिदृश्य बनाने में मदद मिली।
- पक्षपाती सामग्री की नकल करना बंद करें – अपने मंच को विविध आवाजों के साथ साझा करें और अपने आला के आसपास नए आख्यान बनाएं।
- ऑडिट एआई सामग्री – मैं सभी एआई सामग्री को नहीं कहने जा रहा हूं, लेकिन इसकी समीक्षा एक मानव द्वारा की जानी चाहिए क्योंकि यह समान पैटर्न में गिरने का जोखिम रखता है।
- एल्गोरिथम ऑडिट – इसी तरह हम वेबसाइटों का ऑडिट कैसे करते हैं, एल्गोरिदम का ऑडिट किया जा सकता है. संभावित पूर्वाग्रहों का ऑडिट करने और इसके लिए ऑडिट करने के लिए संसाधन हैं प्रभाव आकलन.
- शिक्षा का समर्थन करें – महिलाओं, रंग के लोगों, या अन्य हाशिए के समूहों को कोडिंग, सॉफ्टवेयर, या तकनीकी प्रशिक्षण प्रदान करने वाले संगठनों के साथ समर्थन या स्वयंसेवक। को आभार टेक एसईओ में महिलाएं उन स्थानों में से एक होने के लिए।
- बहुभाषी संसाधन – विविध आवाजों और दृष्टिकोणों की अनुमति देने के लिए अंग्रेजी के अलावा अन्य भाषाओं में एसईओ और अन्य विपणन संसाधन बनाएं।
- कम पक्षपाती एल्गोरिदम और एआई बनाएं – कहा से करना आसान है, लेकिन Google AI ने घोषणा की धोखाधड़ी करने वाले विक्रेता पिछले साल, जिसमें तथ्य-जांच और पूर्वाग्रह को कम करने के संबंध में कुछ संभावनाएं हैं
- खोज के जेंट्रीफिकेशन को रोकें – प्रतिस्पर्धा-विरोधी होना व्यवसाय-विरोधी होना है। यह नई और विविध आवाजों को दबाता है, इसलिए मैं और देखना चाहूंगा खोज में कंपनियां परिदृश्य और परिणामों में अधिक विविधता।
मेरा इस विषय पर अंतिम रूप देने का इरादा नहीं है, क्योंकि यह बातचीत ट्विटर थ्रेड्स में, सम्मेलनों में, कॉफी पर और हमारे दैनिक कार्यों में जारी रहनी चाहिए।
कृपया इस विषय के बारे में अपने विचार या प्रश्न साझा करें ताकि हम एक ऐसे खोज अनुभव के निर्माण पर चर्चा शुरू कर सकें जो समाज को नुकसान न पहुंचाए।
और अधिक संसाधनों:
विशेष रुप से प्रदर्शित छवि: एंड्री यालान्स्की / शटरस्टॉक
window.addEventListener( 'load', function() { setTimeout(function(){ striggerEvent( 'load2' ); }, 2000); });
window.addEventListener( 'load2', function() {
if( sopp != 'yes' && addtl_consent != '1~' && !ss_u ){
!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window,document,'script', 'https://connect.facebook.net/en_US/fbevents.js');
if( typeof sopp !== "undefined" && sopp === 'yes' ){ fbq('dataProcessingOptions', ['LDU'], 1, 1000); }else{ fbq('dataProcessingOptions', []); }
fbq('init', '1321385257908563');
fbq('track', 'PageView');
fbq('trackSingle', '1321385257908563', 'ViewContent', { content_name: 'google-search-bias', content_category: 'seo' }); } });