„The [algorithms for content’s] selections aren’t particularly intelligent, but they have more power over people’s cognitive intake than any dictator in history. The algorithms’ objective is usually to maximise click-through. (…) The designers thought, perhaps, that the algorithm would learn to send items that the user likes. But the algorithm had other ideas: Like any rational entity, it learns how to modify the state of its environment – in this case, the user’s mind – in order to maximise its own reward, by making the user more predictable. A more predictable human can be fed items that they are more likely to click on, thereby generating more revenue. Users with more extreme preferences seem to be more predictable. And now we see the consequences of growing extremisms all over the world.“
Der Informatiker, AI-Experte und -Kritiker Stuart Russell hält in diesem Jahr die renommierten Reith Lectures der BBC. Thema: Die Gefahr von General Artificial Intelligence.
Die erste Vorlesung lässt sich schon einmal gut an. Sicher kann man darüber streiten, ob die Social-Media-Mechanismen wirklich auf „besserer Sortierbarkeit der Nutzer“ basieren. Aber wer Maschinenlogiken kennt, weiß, dass das nicht der falscheste Blick auf das Problem sein muss. Zumal Russell ja auch betont, dass es keine „bösen“ oder „schlauen“ Algorithmen sind (remember Feuilletondebatten?), sondern relativ einfache Prozesse mit sehr viel geordnetem Input.
Lustig finde ich auch, wie hier wieder das etwas kritischere (und geisteswissenschaftlich angehauchte) Technologie-Verständnis der Berkeley-Leute rauskommt – im Gegensatz zu den Stanford-Menschen, wo sich bis vor ein paar Jahren eigentlich fast immer um „Nutzbarmachung“ ging.