Das Inter­net ist voll von neu­en Din­gen: Auf jeder Platt­form kön­nen wir uns stun­den­lang durch­kli­cken und ent­de­cken immer wie­der Neu­es. Doch haben wir über­haupt die Wahl, was uns ange­zeigt wird oder ent­schei­det allein ein Algo­rith­mus dar­über, was wir online zu sehen bekom­men? Um die­se Fra­ge zu beant­wor­ten haben wir einen Selbst­ver­such gestartet.

Zwi­schen zwei Wel­ten – ein Selbstversuch

FOMO, fear of mis­sing out. Es ist das Phä­no­men der Genera­ti­on Z. Die Angst, etwas zu ver­pas­sen, hat sich so sehr in unse­ren Köp­fen ein­ge­nis­tet, dass wir auch noch alten Klassenkamerad:innen von frü­her auf Insta­gram fol­gen, obwohl wir sie nie so wirk­lich moch­ten. Wir wol­len aber wis­sen, was sie tun, wo sie sind und mit wem. Wir sind neu­gie­rig, gie­rig nach Neuem.

Die­se Neu­gier hat unse­re Repor­te­rin Sina zu fol­gen­dem Selbst­ver­such gebracht, durch den sie den Algo­rith­mus von Insta­gram, You­Tube und Spo­ti­fy bes­ser ken­nen­ler­nen woll­te. Eine Woche. Zwei Smart­pho­nes. Drei Plattformen. 

Repor­te­rin Sina Bahr mit den zwei Selbst­ver­such-Smart­pho­nes: Der lila und der grü­nen Sina.

Was sie her­aus­fin­den woll­te: Wie die Algo­rith­men der Platt­for­men auf ihre Nut­zung reagie­ren und wie schnell sie dadurch in ver­schie­de­ne Bub­bles gerät.

Wie sie das gemacht hat: Auf zwei zurück­ge­setz­ten Smart­pho­nes hat sie Insta­gram, You­Tube und Spo­ti­fy instal­liert und jeweils einen neu­en Account pro Gerät auf allen drei Platt­for­men ange­legt. Ein Smart­pho­ne wur­de zur lila Sina, das ande­re zur grü­nen Sina – pas­send zu den Sti­ckern auf der Rück­sei­te. Bei­de Sinas hat­ten die glei­chen Merk­ma­le: Anfang 20, weib­lich, Eich­stät­ter Stu­den­tin. In den ers­ten bei­den Tagen, von Frei­tag bis Sonn­tag, haben die bei­den Sinas auf den drei Platt­for­men genau die glei­chen Inhal­te kon­su­miert. Heißt: Sie haben die glei­chen Bei­trä­ge gelik­ed, die glei­chen Vide­os geschaut, die glei­che Musik gehört und sind den glei­chen Accounts gefolgt. 

Am Sonn­tag hat sich Sina von die­ser Main­stream-Rich­tung verabschiedet.

Was dabei her­aus­kam: Das erfahrt ihr in den Vide­os unter den jewei­li­gen Platt­form-Abschnit­ten. Wich­tig ist dabei nur eins: Egal, für wel­che Platt­form ihr euch inter­es­siert – der Algo­rith­mus ist für alle drei eine wich­ti­ge Grundlage.

Algo- was?

Wenn es um Algo­rith­men geht, haben wir häu­fig das Bild einer „super­schlau­en“, robo­ter­ar­ti­gen Künst­li­chen Intel­li­genz vor Augen. Eigent­lich ist ein Algo­rith­mus jedoch etwas rela­tiv Simp­les: Eine Ket­te von Anwei­sun­gen, die in einer fest­ge­leg­ten Rei­hen­fol­ge aus­ge­führt wer­den, um ein Pro­blem oder eine Auf­ga­be zu lösen. Ver­gleich­bar mit einem Koch­re­zept. Man könn­te ihn aus mathe­ma­ti­scher Sicht auch als Berech­nungs­vor­schrift defi­nie­ren. Die von vie­len ver­hass­te Mit­ter­nachts­for­mel ist also ledig­lich der Algo­rith­mus zum Lösen qua­dra­ti­scher Glei­chun­gen einer bestimm­ten Form.

Da Pro­ble­me in unse­rem All­tag weit ver­brei­tet sind, sind auch Algo­rith­men in unse­rer Welt all­ge­gen­wär­tig. Zum Bei­spiel bei der Suche nach der schnells­ten Rou­te im Auto-Navi oder bei der Google-Suche.

Auf Social-Media-Platt­for­men spie­len Algo­rith­men eben­falls eine zen­tra­le Rol­le. Ihre Auf­ga­be ist es, Inhal­te per­so­na­li­siert zu fil­tern. Sie indi­vi­dua­li­sie­ren die Platt­for­men, indem sie durch Fak­to­ren wie Such­ver­lauf, Watcht­i­me und Klick­ver­hal­ten berech­nen, was uns als Nutzer:innen am meis­ten interessiert.

Die Algo­rith­men sind so ent­wi­ckelt, dass sie auf­grund der erho­be­nen Daten über uns die Inhal­te her­aus­su­chen, die für uns am inter­es­san­tes­ten sind. Das muss nicht zwangs­läu­fig bedeu­ten, dass die­se uns immer am bes­ten gefal­len. Es geht dar­um, dass wir mög­lichst lan­ge auf der Platt­form blei­ben und inter­agie­ren. Wir sind also nicht nur Konsument:innen, son­dern auch selbst ein wert­vol­les Pro­dukt. Genau­er gesagt unse­re Daten, die gezielt für Mar­ke­ting genutzt wer­den, womit die Platt­for­men dann Geld verdienen.

Ich sehe was, was du nicht siehst

Spricht man also von einem Algo­rith­mus, kann damit ein ein­fa­cher mathe­ma­ti­scher Algo­rith­mus zur Lösung von Glei­chun­gen gemeint sein. Aber auch ein hoch­kom­ple­xer Emp­feh­lungs­al­go­rith­mus wie der von You­Tube, der aus soge­nann­ten Black Boxes besteht, in die man nicht hin­ein­se­hen kann. Denn wie die Algo­rith­men dort aus Daten­men­gen logi­sche Zusam­men­hän­ge errech­nen, ist meist nicht mal mehr für die Entwickler:innen nachvollziehbar.

Die rie­si­gen Daten­ber­ge, die die Algo­rith­men von Social-Media-Platt­for­men ana­ly­sie­ren, bezeich­net man als Big Data. Das muss man sich als den Ver­such vor­stel­len, „Gesetz­mä­ßig­kei­ten aus einem ver­meint­lich völ­lig unstruk­tu­rier­ten Hau­fen an Daten zu zie­hen“, erklärt Jochim Sel­zer. Er ist Infor­ma­ti­ker und Mit­glied im Cha­os Com­pu­ter Club. Die Hacker:innenvereinigung ist eine der bedeu­tends­ten Nicht­re­gie­rungs­or­ga­ni­sa­ti­on bei Fra­gen rund um Com­pu­ter­si­cher­heit. Sel­zer erklärt, dass man mit­hil­fe von sta­tis­ti­schen Ver­fah­ren ver­sucht, Zusam­men­hän­ge aus rie­si­gen Daten­men­gen her­aus­zu­le­sen, die bis­lang nicht ersicht­lich waren. Die­se Rechen­leis­tun­gen über­stei­gen unse­re Vor­stel­lun­gen. Sel­zer betont aber, wie wich­tig es ist, dass Men­schen die­se Ana­ly­sen kor­rekt einordnen: 

„Wir dür­fen dabei das Groß­hirn nicht ausschalten.“

Jochim Sel­zer, IT-Exper­te vom Cha­os Com­pu­ter Club

Oft­mals nut­zen Platt­for­men für Big Data-Ana­ly­sen soge­nann­te neu­ro­na­le Net­ze, die mit einer Viel­zahl von Algo­rith­men Mus­ter aus Daten­men­gen her­aus­le­sen. Sie arbei­ten nach dem­sel­ben Prin­zip wie das mensch­li­che Gehirn. Wie bei einem Kind wird das „Gehirn“ Stück für Stück trai­niert, ein bestimm­tes Pro­blem zu lösen. Die Net­ze sind so pro­gram­miert, dass sie selbst aus Feh­lern ler­nen, bis sie ihre jewei­li­ge Auf­ga­be feh­ler­frei ausführen.

Unse­re Repor­te­rin Sina hat wäh­rend ihres Selbst­ver­suchs Daten pro­du­ziert, aus denen die Algo­rith­men ihre Schlüs­se gezo­gen haben. Sie woll­te damit her­aus­fin­den, wie stark sie dadurch in Mei­nungs-Bub­bles gelenkt wird. Wohin sie das auf Insta­gram geführt hat, seht ihr in die­sem Video.

YouTube

Mit dem Laden des Vide­os akzep­tie­ren Sie die Daten­schutz­er­klä­rung von You­Tube.
Mehr erfah­ren

Video laden

YouTube

Mit dem Laden des Vide­os akzep­tie­ren Sie die Daten­schutz­er­klä­rung von You­Tube.
Mehr erfah­ren

Video laden

YouTube

Mit dem Laden des Vide­os akzep­tie­ren Sie die Daten­schutz­er­klä­rung von You­Tube.
Mehr erfah­ren

Video laden

Der böse Algorithmus?

Algo­rith­men, KI, deep machi­ne lear­ning – all die­se tech­ni­schen Berech­nungs­pro­zes­se bestim­men mitt­ler­wei­le unse­re Ent­schei­dun­gen und unser Leben. Sie hel­fen uns, schrän­ken uns aber auch gleich­zei­tig ein. Beson­ders dann, wenn wir nicht wis­sen, dass hier gera­de schon mal ein Algo­rith­mus die Vor­auswahl für uns getrof­fen hat.

Joost van Loon nennt das den „Mythos der Ent­schei­dungs­frei­heit.“ Er ist Pro­fes­sor für Sozio­lo­gie an der Katho­li­schen Uni­ver­si­tät Eich­stätt-Ingol­stadt und erklärt, dass man zwar das Gefühl habe, man kön­ne selb­stän­dig ent­schei­den, wel­chen Post man liket, man aber immer nur eine Aus­wahl zu sehen bekom­me und nie die gan­ze Wahrheit.

Die­se Aus­wahl hat ins­be­son­de­re bei poli­ti­schen The­men schwer­wie­gen­de Aus­wir­kun­gen auf uns als Gesell­schaft: „Sie führt zu einem Zusam­men­bruch der Öffent­lich­keit“, sagt van Loon. 

„Es gibt eigent­lich kei­ne Öffent­lich­keit mehr.“

Joost van Loon, Pro­fes­sor für Soziologie

Wir fra­gen uns, wie kann es sein, dass er oder sie glaubt, beim Imp­fen bekä­me man Chips ein­ge­pflanzt? Wie kann es sein, dass man­che den­ken, Coro­na wäre von der Regie­rung erfun­den wor­den? Die Ant­wort ist so ein­fach wie erschre­ckend: Jede:r hat online eine eige­ne Rea­li­tät, jede:r kann auf sei­nem oder ihrem sozia­len Medi­um ande­re Infor­ma­tio­nen erhal­ten als die Per­son, mit der er oder sie befreun­det ist. Das spal­tet uns als Gesellschaft.

„Poli­tisch gese­hen ist das eine Kata­stro­phe“, sagt van Loon. Wenn wir die­se Gefahr aller­dings erken­nen und sie ändern wol­len, anstatt sie zu baga­tel­li­sie­ren, dann sei die Lage nicht hoffnungslos.

Mehr Macht den Menschen

Was wir tun kön­nen? Bewusst unter­schied­li­chen Medi­en­häu­sern auf Insta­gram fol­gen, unse­re Musik gezielt aus­wäh­len und aus­drück­lich nach bei­den Ansich­ten zu einer Debat­te bei You­Tube suchen. Dann ver­lie­ren wir uns nicht mehr in nur einer Echokammer.

„So Boo­mer-mäßig das auch klingt: man kann auch mal off­line sein“, fin­det Ethik- und Infor­ma­tik-Exper­tin Sarah Sterz. Aber nicht nur wir sind in der Pflicht, unser Ver­hal­ten zu ändern. Auch die Platt­for­men der sozia­len Medi­en sieht Sterz in der Bring­schuld. Sie wünscht sich mehr Trans­pa­renz für Nutzer:innen und for­dert exak­te Infor­ma­tio­nen dar­über, war­um uns der Algo­rith­mus genau die­sen Post vorschlägt.

„Ich wür­de mich nie hin­stel­len und sagen: 

‚Algo­rith­men ver­bie­ten, denn sie sind ein Gräuel!’ “

Jochim Sel­zer, IT-Exper­te vom Cha­os Com­pu­ter Club

Auch Infor­ma­tik-Exper­te Jochim Sel­zer wünscht sich trans­pa­ren­te­re Ent­schei­dungs­fin­dun­gen der Algo­rith­men: „Ich wür­de mich nie hin­stel­len und sagen ‚Algo­rith­men ver­bie­ten, denn sie sind ein Gräu­el!‘, denn dann bekom­me ich sehr viel Con­tent ange­zeigt, der mich nicht die Boh­ne interessiert.“

Eine Sache darf man bei der gan­zen Debat­te nicht ver­ges­sen: Die Algo­rith­men an sich haben nicht zu gesell­schaft­li­cher Spal­tung geführt. Es ist die Art und Wei­se, wie und mit wel­chen Daten sie gefüt­tert wer­den. Sel­zer sagt: „Algo­rith­men sind ein­fach nur. Sie sind nicht gut oder böse, son­dern sie sind einfach.“