SMX East 2011: Główna rozmowa z Eli Pariserem

Opublikowany: 2011-09-14

Eli jest autorem „The Filter Bubble”, a dziś rano Danny Sullivan i Chris Sherman będą rozmawiać z Elim o personalizacji. Personalizacja w wyszukiwarkach od dawna jest Świętym Graalem, jednak czasami jest pomijana ciemna strona technologii. To jest bańka filtrująca, ukryta sieć, która powstaje, gdy to algorytmy, a nie ludzie, zarządzają siecią.

Wstęp Chrisa Shermana do przemówienia

Eli chce z nami porozmawiać o moralnych konsekwencjach życia w naszym świecie z trafnością zdefiniowaną zgodnie z myślą Marka Zuckerberga:

Wiewiórka umierająca czcionką twojego domu może być dla ciebie teraz bardziej odpowiednia niż dziecko umierające w Afryce.

Na Facebooku zauważył, że aktywność jego konserwatywnych znajomych nie pojawia się w jego kanale informacyjnym. Chociaż powiedział, że chciałby usłyszeć od ludzi, którzy myśleli inaczej, klikał treści od znajomych o podobnych zainteresowaniach.

Facebook używał tego, by dać mu więcej takich rzeczy, i tak po prostu, jego konserwatywni przyjaciele zniknęli.

Google też to robi. Poprosił znajomych do Google „Egipt” i przesłał mu wyniki. Dwóch białych przyjaciół mieszkających w Nowym Jorku uzyskało zupełnie inne wyniki. Jeden uzyskał wiele wyników politycznych, a drugi informacje o podróżach i wakacjach.

W CZASIE INTERNET POKAZUJE NAM TO, CO CHCEMY ZOBACZYĆ.

Niekoniecznie to, co musimy zobaczyć.

Eric Schmidt: Ludziom będzie bardzo trudno oglądać lub konsumować coś, co nie było dla nich dostosowane.

Twoja bańka filtrująca to Twój osobisty, unikalny krąg informacji. Nie wybierasz, co jest uwzględnione, a co wycięte.

Są badania, które pokazują, że jest w nas przeciąganie liny: zabaw mnie teraz kontra przyszły altruista. Najlepsze media równoważą te dwa ja w zbilansowanej diecie informacyjnej.

Ale algorytmy personalizacji sprawdzają, co klikasz jako pierwsze, więc zamiast niektórych warzyw informacyjnych i jakiegoś deseru informacyjnego, kończysz w otoczeniu fast foodów.

Przed internetem media były strażnikiem bramki informacyjnej. Potem otworzył ją Internet, aby każdy mógł znaleźć i opublikować cokolwiek. Ale to nieprawda. Są nowi strażnicy bram i nie ma to żadnego poczucia obywatelskiego obowiązku.

Jeśli maszyny mają zarządzać naszym kręgiem informacyjnym, musimy upewnić się, że wbudowują inne istotne sygnały – rzeczy, które stanowią dla nas wyzwanie, inne punkty widzenia. Potrzebujemy Internetu, aby był tym, co wprowadza nas w inne sposoby myślenia. To nie może się zdarzyć, jeśli utkniemy w bańce.

Danny pyta w wynikach wyszukiwania, czy znajduje podobieństwa między wynikami różnych osób, a także różnice? Eli mówi, że od czasu publikacji jego książki pojawiły się nowe badania. Niektóre wyrażenia są bardzo zróżnicowane, a niektóre zwroty w ogóle nie różnią się od siebie. Wikipedia będzie bardzo dominująca, ale wraz ze wzrostem spersonalizowanego wyszukiwania, Wikipedia spada w rankingach.

Danny mówi, że lata temu marketerzy w wyszukiwarkach widzieli różne wyniki, zwłaszcza w różnych regionach. Czy osoby biorące udział w twoich testach oczekiwały takich samych wyników? Eli mówi, że większość ludzi w ogóle nie wie, że Google to robi.

W rozmowie z inżynierem Google powiedział, że istnieją dwa sposoby korzystania z wyszukiwania: wypełnienie pustego pola i otwarte badanie. Google bardziej interesuje druga modalność, która jest najbardziej dotknięta personalizacją, a zatem być może najbardziej niepokojąca

Chris mówi, że w rozmowie z Google powiedzieli, że personalizacja byłaby subtelna i powiązana z zapytaniami typu long tail. Czy to twoje doświadczenie? Eli mówi, że trudno powiedzieć w każdym przypadku, ponieważ algorytm jest tak złożony. Uważa, że ​​nawet ludzie z Google nie wiedzą. I nie sądzi, że Google robi to złośliwie, a oni naprawdę uważają, że to poprawa.

Chris pyta, czy to Google powinno to kontrolować, czy też Google staje się czymś w rodzaju narzędzia, które powinno być regulowane? Eli mówi, że algorytm podejmuje decyzje za ponad miliard ludzi, a mimo to jest całkowicie nieprzejrzysty. Nie ma poczucia odpowiedzialności za Google. Byłoby dobrze, gdyby ludzie przynajmniej wiedzieli, jaką transakcję dokonują z Google.

Inżynierowie, z którymi rozmawiał, powiedzieli, że nie chcą tego zbytnio komplikować, ponieważ większość ludzi nie wie, co się dzieje. Uważa jednak, że teraz ludzie stają się coraz bardziej umiejętni w zakresie obsługi algorytmów. A zasady dotyczące personalizacji muszą zostać napisane na nowo, ponieważ od czasu wprowadzenia Internetu tak wiele się zmieniło. Zresetowanie oczekiwań prawdopodobnie będzie musiało nastąpić na poziomie regulacji.

Chris mówi, że Google jest dość dobrze znany z dostarczania narzędzi. Panel Google pokazuje użytkownikom wszystkie reklamy informacyjne, które pracują z frontem Data Liberation. Ale Google nie mówi nam, w jaki sposób wykorzystuje te informacje. Mówią, że nie mogą, bo to ich sekretny sos.

Przemówienie z Eli Pariserem

Eli mówi, że Panel Google to początek. Uważa, że ​​Google myśli o tych sprawach z etycznego punktu widzenia bardziej niż inne firmy na podobnym stanowisku. Musimy również wiedzieć, co Google wnioskuje o nas na podstawie tego, co wiedzą.

Im więcej masz danych, tym więcej wniosków możesz wyciągnąć i możesz na tym zarabiać. Hunch, silnik rekomendacji, stworzył algorytm orientacji seksualnej, dzięki któremu byli w stanie dość wiarygodnie przewidzieć orientację seksualną danej osoby na podstawie innych danych.

Mogliby następnie sprzedać te informacje reklamodawcom w celu kierowania, ale niekoniecznie jest to coś, co użytkownik chce udostępnić i sprzedać reklamodawcom.

Chris mówi, że ta grupa odbiorców to marketerzy, którzy postrzegają personalizację jako świetny sposób na dotarcie do swoich odbiorców. Eli mówi, że dla marketerów personalizacja to miecz obosieczny. To kolejna pętla, przez którą można się przebić. I możesz przegapić segmenty swoich odbiorców, nawet o tym nie wiedząc.

Jego przesłaniem jest to, że personalizację należy przeprowadzać w sposób przejrzysty. Google może lepiej wyjaśnić, jaka jest ich filozofia. Powinno być więcej badań nad konsekwencjami. Równowaga pojawia się, gdy ludzie mogą korzystać z personalizacji tak, jak chcą z niej korzystać.