30.5.19

03005

Klimaaktivist!? Ex-Gouverneur und Schauspieler Arnold Schwarzenegger



Arnold Schwarzenegger fährt einen AM General “Terminator” Hummer

Falls Sie es nicht wussten, der Hummer wurde erstmals 1992 als zivile Version des M988 Humvee auf den Markt gebracht. Diese zivilen Versionen trugen die gleiche Struktur sowie zahlreiche der gleichen mechanischen Komponenten, erhielten aber einige Verbesserungen. Das Unternehmen fügte Klimaanlagen, Schallschutz-Stereoanlagen, Holzverkleidungen, verbesserte Polsterungen und sogar Komfortpakete hinzu.
Aber Schwarzenegger fährt nicht nur eine abgespecktes Militärfahrzeug, er hat eine größere Sammlung an Sportwagen und andere Geländewagen.





….und noch Schwarzeneggers Autosammlung als Video…..




Soviel zu TERMINATOR....!! 




Zitat:

„Eure Zeit ist bald abgelaufen“, rief Schwarzenegger denen zu, die aus seiner Sicht nur den Status quo bewahren wollten. „Ihr könnt den Fortschritt bremsen. Aber wir Träumer und Macher weltweit werden Euch beweisen, dass ihr falsch liegt.“ Schwarzenegger selbst sei früher als verrückt bezeichnet worden, weil er unmögliche Ziele gehabt habe: Bodybuilding-Champion, Filmstar, Politiker. Nun würden Millionen mit Greta "Action" von den Erwachsenen verlangen, die Versprechungen machen würden, die sie nicht hielten.


Tja, passt alles in diese linksversiffte Welt...!!





29.5.19

02905

US-Behörden wollen Telekommunikation in Europa abhören


Über ein Durchführungsabkommen will die US-Regierung die Echtzeitüberwachung von Servern in der Europäischen Union erreichen.


Ganz legal könnte das FBI bald sensible Kommunikationsdaten von europäischen Internetdienstleistern herausverlangen, möglicherweise auch in Echtzeit. Damit will die Europäische Union die Trump-Administration gewogen machen, im Gegenzug „elektronische Beweismittel“ direkt bei Facebook & Co. abfragen zu dürfen.

Die EU-Kommission will ein Abkommen mit der US-Regierung verhandeln, das Internetanbieter mit Sitz in der Europäischen Union zu mehr Kooperation mit US-Behörden zwingt. Die Firmen müssten Polizeien und Geheimdiensten aus den USA Zugang zur Kommunikation ihrer NutzerInnen gewähren. Auch europäische Strafverfolger könnten dann direkt bei Facebook, Apple und anderen Internetriesen eine Anordnung zur Herausgabe stellen. Der bislang übliche Rechtsweg über die Justizbehörden soll entfallen.
Die Pläne sind Teil der „E-Evidence“-Verordnung, mit der die EU die Herausgabe „elektronischer Beweismittel“ erleichtern will. Dies umfasst einem kürzlich veröffentlichten Entwurf zufolge NutzerInnendaten (Name, Geburtsdatum, Postanschrift, Telefonnummer), Zugangsdaten (Datum und Uhrzeit der Nutzung, IP-Adresse), Transaktionsdaten (Sende- und Empfangsdaten, Standort des Geräts, verwendetes Protokoll) sowie Inhaltsdaten.

Durchführungsabkommen mit der US-Regierung


Die geplante EU-Verordnung ist auf Firmen mit Sitz in der Europäischen Union beschränkt. Weil die meisten der begehrten Daten aber in den USA lagern, plant die EU-Kommission ein Durchführungsabkommen mit der US-Regierung. Möglich wäre dies im Rahmen des „CLOUD Act“, den die US-Regierung im vergangenen Jahr erlassen hat. Er verpflichtet die in den USA niedergelassenen Firmen zur Offenlegung von Bestands-, Verkehrs- und Inhaltsdaten, wenn dies zur Strafverfolgung oder Gefahrenabwehr notwendig scheint.
Der „CLOUD Act“ erlaubt es Drittstaaten, ebenfalls Herausgabeanordnungen bei US-Firmen zu stellen. Ein hierzu notwendiges Abkommen muss auf Gegenseitigkeit beruhen und der US-Regierung damit Zugriff auf Firmen in den Partnerländern erlauben. Die Trump-Administration verlangt hierfür jedoch das Zugeständnis, auch in Echtzeit Inhaltsdaten abhören zu können. Firmen mit Sitz in der EU müssten diese dann unmittelbar an US-Behörden ausleiten.

Keine Möglichkeit der Zurückweisung


Die EU-Kommission hat im März ein Verhandlungsmandat mit den USA vorgestellt, auf das sich der Rat jetzt mit wenigen Änderungen geeinigt hat. Es soll auf dem Treffen der EU-Innenminister am 7. Juni in Luxemburg verabschiedet werden. Im derzeitigen Entwurf sind die Echtzeitüberwachungsmaßnahmen nicht erwähnt – nämlich, um zunächst abzuwarten, welche Forderungen die US-Regierung hierzu aufstellt.
Enthalten ist hingegen die europäische Forderung, dass die US-Behörden jene EU-Staaten, auf deren Hoheitsgebiet eine Echtzeitüberwachung auf Basis des „CLOUD Act“ stattfindet, wenigstens darüber informieren. Auch die Bundesregierung hatte dies gefordert. Eine solche Regelung würde aber nicht garantieren, dass ein EU-Mitgliedstaat der Abhörmaßnahme von US-Behörden auch widersprechen kann.

Sondersitzungen zum EU-US-Abkommen


Für die Kooperation mit den USA ist es außerdem von Bedeutung, ob die aus der EU übermittelten Inhaltsdaten für die Verhängung der Todesstrafe oder einer lebenslänglichen Gefängnisstrafe genutzt werden sollen, ohne dass die Verurteilten eine vorzeitige Entlassung beantragen können. Nach EU-Recht wäre dies ausgeschlossen. Im Entwurf für das Verhandlungsmandat der Kommission fehlt jedoch eine solche Vorschrift.
Schließlich dürften die US-Behörden die erlangten Inhaltsdaten unter bestimmten Umständen auch an andere Staaten weitergeben. Auch deshalb fordern die EU-Innenminister eine enge Beteiligung an den Verhandlungen zum geplanten EU-US-Abkommen. Die Kommission soll der zuständigen Ratsarbeitsgruppe „Zusammenarbeit in Strafsachen“ regelmäßig Bericht erstatten und bei Bedarf auch Sondersitzungen einberufen.

Doppelung mit Europarat


Auch auf Ebene des Europarates, dem unter anderem die Türkei und Russland angehören, wird die Herausgabe „elektronischer Beweismittel“ neu geregelt. Hierzu wird das Budapester Übereinkommen über Computerkriminalität (die sogenannte Budapest-Konvention) mit einem Anhang erweitert. Bis Dezember 2019 will eine Arbeitsgruppe einen Entwurf für das Zusatzprotokoll vorlegen.
Im Gegensatz zur Europäischen Union haben auch Länder wie Russland, die Türkei, Australien, Kanada, die USA und Japan die Budapest-Konvention unterzeichnet. Zwar ist die EU nicht Mitglied des Europarates und hat deshalb auch die Budapest-Konvention nicht unterzeichnet. Wie bei dem „CLOUD Act“ soll die EU-Kommission trotzdem auch mit dem Europarat stellvertretend für alle Mitgliedstaaten um das Zusatzprotokoll verhandeln. Ein entsprechendes Mandat will der Rat der Innenminister ebenfalls am 7. Juni beschließen.

EU-Kommission will „Trennungsklausel“


Noch bleibt unklar, wie sich die „E-Evidence“-Verordnung von der Budapest-Konvention unterscheiden soll. Die Behörden der EU-Mitgliedstaaten könnten künftig mitunter wählen, ob sie lieber eine Herausgabeanordnung über die Europarat-Regelung oder die der Europäische Union erlassen.
Deshalb soll die Budapest-Konvention nach dem Willen der Kommission eine „Trennungsklausel“ enthalten. Sie würde die EU-Mitgliedstaaten verpflichten, im Falle innereuropäischer Ermittlungen immer die „E-Evidence“-Verordnung für „elektronische Beweismittel“ zu nutzen.

Quelle

21.5.19

02105

Journalisten zu Juncker: „Haben Sie ein Alkoholproblem?“


EU-Kommissionspräsident Jean-Claude Juncker wurde von Journalisten gefragt, ob er ein Alkoholproblem habe. Auf diese Frage reagierte er wütend.




Wie die „Daily Mail“ berichtet, wurde EU-Kommissionspräsident Jean-Claude Juncker am Montag von Journalisten gefragt, ob er ein Alkoholproblem habe. Daraufhin sei der 64-jährige Luxemburger wütend und ausfällig geworden. Er habe die Journalisten als „dumm“ bezeichnet, zumal er schon mehrfach diverse Erkrankungen als Grund für seine Verhaltensweisen angab.
„Ich habe es oft gesagt, dass ich kein Problem mit Alkohol habe“, so Juncker laut der britischen Zeitung, „Dumme Journalisten stellen immer die gleiche Frage, obwohl diese Frage bereits beantwortet wurde.“ Doch manche Menschen fragen sich, ob der Kommissionspräsident vielleicht Probleme ohne Alkohol hat.
Denn mit seinem Verhalten gegenüber anderen Politikern, denen er „liebevolle Ohrfeigen“ verteilt, durch die Haare wuschelt oder sie einfach küsst, stößt er immer wieder auf Unverständnis. Auch sein immer wieder schwankender Gang, der Umstand dass er immer wieder gestützt werden muss oder stolpert, lässt Raum für Spekulationen. Er hält die Vorwürfe des übermäßigen Alkoholkonsums für ein „böswilliges Gerücht“.
Doch anstatt ein medizinisches Gutachten vorzuweisen, was eine Person in seiner hohen politischen Funktion tun sollte, übt er sich lieber in Beschimpfungen und Unterstellungen. Es wäre ein Leichtes für ihn, die Vorwürfe zu entkräften, doch stattdessen beißt er zurück. Da fragt man sich: ist an den Gerüchten doch etwas dran? 


Video:


17.5.19

01705

Uploadfilter: Europol und BKA schaffen Tatsachen

Die EU-Verordnung zur Entfernung „terroristischer Online-Inhalte“ soll eigentlich erst im Herbst beschlossen werden. Doch mit sechs Millionen Euro finanziert die EU-Kommission bereits deren technische Umsetzung.



Mit Entfernungsanordnungen wollen Strafverfolgungsbehörden Videos, Bilder, Textdateien oder ganze Webseiten aus dem Internet löschen. Noch sperrt sich das Parlament gegen „automatisierte Werkzeuge“ AKA Uploadfilter.

Vergangenen Herbst hat die EU-Kommission ihren Vorschlag für eine Verordnung zur „Verhinderung der Verbreitung terroristischer Online-Inhalte“ vorgelegt. Das Regelwerk sollte eigentlich im Eilverfahren noch vor der EU-Wahl nächste Woche abgestimmt werden. Doch die Zeit reichte nicht mehr für die abschließenden Verhandlungen zwischen Rat, Parlament und Kommission. Sie sollen nun im Herbst stattfinden, nachdem das neue Parlament seine Arbeit aufgenommen hat.

Mit der Verordnung würden Dienstleister im Internet nach Willen von Kommission und Rat gezwungen, „terroristische“ Dateien schnellstmöglich zu entfernen. Hierzu sollen die Strafverfolgungsbehörden Anordnungen erlassen, denen innerhalb einer Stunde entsprochen werden muss. Betroffen sind Videos, Bilder, Textdateien oder ganze Webseiten. Die Firmen sollen außerdem „proaktive Maßnahmen“ setzen, um das erneute Hochladen bereits entfernter Dateien zu verhindern oder solche Inhalte schon im Vorfeld selbst zu erkennen. Bei diesen „automatisierten Werkzeugen“ handelt es sich um Uploadfilter.

Parlament gegen Filterpflicht

Der Rat der EU-Staaten hatte Anfang Dezember den Vorschlag der EU-Kommissionweitgehend unterstützt und entsprechend seine Verhandlungsposition festgelegt. Erst in seiner letzten Sitzungswoche Mitte April legte das Parlament in erster Lesung seinen Standpunkt fest. Die Abgeordneten sprachen sich zwar für kurze Löschfristen aus, allerdings sollten die Firmen nicht zur Installation von Uploadfiltern gezwungen werden.

Die Entfernungsanordnungen dürften laut dem EU-Parlament auch nicht grenzüberschreitend ausgesprochen werden. Im Klartext bedeutet das, dass eine deutsche Behörde zwar einheimische Internetanbieter zur Entfernung von Inhalten zwingen kann, jedoch nicht in einem anderen EU-Mitgliedstaat. Hierzu sollen nach dem Willen der Abgeordneten die dort zuständigen polizeilichen Strafverfolgungsbehörden angeschrieben werden. Diese wären dann für die Überprüfung und Entfernung zuständig.

Sechs Millionen für technische Infrastruktur

Doch während die Maßnahmen noch debattiert werden, ist die EU-Polizeiagentur Europol längst dabei, die technische Infrastruktur für grenzüberschreitende Entfernungsanordnungen zu errichten. Unter dem Kürzel „PERCI“ entsteht in Den Haag ein Informationssystem für die Koordination von Ersuchen aus den Mitgliedstaaten, für das Europol im aktuellen Haushalt sechs Millionen Euro veranschlagt. An diese Plattform würden auch die Internetanbieter angeschlossen, nachdem sie eine solche Aufforderung erhalten haben.

Den Plänen zufolge sollen sämtliche Anordnungen, die im Rahmen der noch zu beschließenden Verordnung ausgesprochen werden, über „PERCI“ verwaltet werden. Die Plattform überprüft auch, ob und wann die Dateien entfernt wurden. Das System protokolliert dabei die Reaktionsgeschwindigkeit der Firmen. Kommen Firmen den Ersuchen nur mit Verzögerung nach, sollen sie zur Einleitung von weiteren Maßnahmen gezwungen werden. Damit würde eine weitere Forderung der geplanten Verordnung umgesetzt.

Kommission forscht an Suchmaschine

Schließlich soll „PERCI“ auch melden, wenn ein anderer Mitgliedstaat bereits eine Entfernungsanordnung für die selbe Datei erlassen hat oder auch wünscht, dass eine Webseite zur polizeilichen oder geheimdienstlichen Beobachtung online bleibt. Im Verordnungsvorschlag wird dies als „Deconfliction“ beschrieben.

In „PERCI“ werden nur Inhalte verwaltet, die den Behörden oder den Internetfirmen bekannt geworden sind. Um selbst entsprechende Dateien zu finden, finanziert die EU-Kommission Forschungen für eine Suchmaschine für kriminelle Internetinhalte. Deutsche TeilnehmerInnen sind das Cybercrime Research Institute in Köln und die Hochschule für den öffentlichen Dienst in Bayern, die Deutsche Hochschule der Polizei ist beratend mit an Bord.

Meldestelle auch beim BKA

Insgesamt hat die „Meldestelle für Internetinhalte“ bei  Europol bereits in rund 100.000 Fällen Internetinhalte zur Entfernung gemeldet. Als Satelliten entstehen auch in jedem EU-Mitgliedstaat entsprechende Kontaktstellen für die Europol-Abteilung. Eine „nationale Meldestelle für Internetinhalte“ des Bundeskriminalamtes (BKA) hat seit Oktober vergangenen Jahres bereits 6.000 Meldungen über den Europol-Kanal verschickt.

Derzeit können die Internetfirmen noch frei entscheiden, wie sie den Meldungen nachkommen. Wie die geplanten Entfernungsanordnungen werden diese zentral bei Europol verwaltet. Das BKA nimmt an einem Pilotprojekt teil, in dem bei Europol eine Plattform zur Verwaltung der Meldungen getestet wird. Diese „Internet Referral Management Application“ (IRMa) wird nach einem Beschluss der Verordnung zur Entfernung „terroristischer Online-Inhalte“ vermutlich für (dann verpflichtende) Anordnungen genutzt.

Neues Parlament soll Vorbehalte aufgeben

Nach der EU-Wahl soll die Verordnung unter der ab Juli amtierenden finnischen EU-Ratspräsidentschaft möglichst rasch endgültig verabschiedet werden. Vermutlich im Herbst werden die Trilog-Verhandlungen zur Diskussion der Standpunkte von Rat und Parlament beginnen.

Es ist davon auszugehen, dass sich die Zusammensetzung des Parlamentes deutlich nach rechts verschiebt. Davon profitieren die Regierungen der Mitgliedstaaten und die Kommission, die darauf hoffen können, dass die neuen Abgeordneten die Vorbehalte des alten Parlamentes aufgeben und für die Verschärfungen der Verordnung stimmen.

von 





11.5.19

01105

Exodus – Wie es enden wird


Den Zustand unserer Welt oder besser gesagt unserer Wirklichkeit, kann man sich wahrlich nur noch schwer bis unmöglich schönreden.

Politische Korrektheit, Unterdrückung von Meinungsfreiheiten, politische Gefangene weltweit, hunderte Milliarden von Lebewesen, die Jahr für Jahr sinnlos und qualvoll sterben müssen, Kriege, geschürter Hass und während all diese Dinge stattfinden, erzählen uns Nachrichten wie schön, gerecht und bunt unsere Gesellschaft doch sei.

Die meisten Menschen, lassen sich von geistloser Unterhaltung ablenken, neben Ihrer täglichen Arbeit. Ich frage mich, was aus all diesen Menschen nur werden soll…

Video:


7.5.19

00705

Warum Künstliche Intelligenz Facebooks Moderationsprobleme nicht lösen kann, ohne neue zu schaffen


Der Datenkonzern Facebook setzt bei der Moderation von Inhalten zunehmend auf Automatisierung. Eine Quelle erklärt uns erstmals, wie sich die Maschinen auf die Moderationsarbeit auswirken. Auch wenn am Ende heute immer noch Menschen entscheiden: Die automatisierte Inhaltserkennung verändert die digitale Öffentlichkeit grundlegend.

Nicht maschinenlesbar: Meinungsfreiheit lässt sich nicht in Formeln übersetzen.

„Auf einmal waren da diese merkwürdigen Tickets.“ Mika* arbeitet in Essen beim Dienstleister CCC und moderiert dort im Auftrag von Facebook Posts, Videos und Bilder, die gegen die Regeln des Konzerns verstoßen könnten. Schon in normalen Wochen bekommen die Moderator:innen viele Meldungen vorgelegt, die bei ihnen Stirnrunzeln auslösen. An diesem Tag wirkten die Posts besonders wahllos zusammengewürfelt: Oft war an ihnen überhaupt nichts auszusetzen, außer dass ein bestimmtes Wort doppeldeutig war. „Proactive Queue“ heißt Ticket-Warteschlage, in der diese merkwürdigen Inhalte zur Moderation vorgelegt wurden.
Es dauerte eine Weile, bis Mika und den Kolleg:innen dämmerte, womit sie es zu tun hatten: Proaktiv – das heißt, dass Facebooks Software selbst Inhalte sucht und zur Löschung vorschlägt, die sie für verdächtig hält. Heute setzt der Weltkonzern im großen Stil auf diese automatisierte Erkennung unerwünschter Inhalte. Es ist ein qualitativer Sprung: Lange wurden die Beiträge, über die die Moderator:innen zu entscheiden hatten, nur von Menschen gemeldet. Sie markieren etwa ein Bild als anstößig, gewalttätig oder obszön, so dass es als Ticket in einem Kanal landet und auf dem Bildschirm von Content-Moderator:innen wie Mika aufschlägt.

Künstliche Intelligenz soll es richten


Wann immer Facebook-Chef Mark Zuckerberg bei den Anhörungen im US-Senat im vergangenen Jahr auf Probleme mit Hetze und anderen unerwünschten Inhalten auf seiner Plattform angesprochen wurde, hatte er für die Politik eine einfache Antwort parat: „AI will fix this“, Künstliche Intelligenz wird es richten. Doch immer mehr Expert:innen melden Zweifel daran an, dass Automatisierung Facebooks Probleme tatsächlich lösen kann. Gleichzeitig können wir beobachten, wie die automatische Vormoderation die digitale Öffentlichkeit schon heute verändert.
Mehr als zwei Milliarden Menschen nutzen laut Unternehmensangaben die von Facebook bereitgestellten Dienste für ihre Kommunikation. Sie diskutieren, streiten, lieben, hassen auf den Plattform des Konzerns. Man findet auf Facebook alles, was das Menschsein ausmacht. Auch Tod und Gewalt in allen Variationen. „Es gibt nichts, was nicht geteilt wird“, erzählt Mika lakonisch. Damit Videos von Vergewaltigungen und Enthauptungen nicht online bleiben, beschäftigt Facebook über Drittfirmen ein Heer von Moderator:innen – und ein Heer von Maschinen.

Nur für den Dienstgebrauch: Content-Moderation als Staatsgeheimnis


Wie genau das System funktioniert, soll die Öffentlichkeit nicht erfahren. Der Konzern zieht seine Maßnahmen für die Content Moderation auf wie ein Staatsgeheimnis, Moderator:innen müssen Geheimhaltungsverträge unterschreiben. Und gerade beim Thema KI lässt sich Mark Zuckerberg ungern in die Karten schauen.
Bekannt ist, dass der Konzern neben digitalen Fingerabdrücken zur automatischen Wiedererkennung bereits gesperrter Inhalte auf maschinelles Lernen setzt. Ein algorithmisches System erkennt hierbei Muster in Trainingsdaten und trifft auf Basis der daraus abgeleiteten Regeln Prognosen zur Bewertung neuer Fälle. Sehr vereinfacht gesagt heißt das: Wenn Post X und Post Y gegen die Gemeinschaftsstandards verstoßen haben, dann tut es Post Z, der ähnliche Eigenschaften aufweist wie X und Y, mit hoher Wahrscheinlichkeit auch.
Durch die schiere Menge zur Verfügung stehender Daten und die gestiegenen Rechenkapazitäten hat diese Form der „Künstlichen Intelligenz“ in den vergangenen Jahren enorme Fortschritte gemacht. Sie hilft bei der Diagnose von Krebs, ermöglicht Autos, die fast autonom fahren und Sprachassistenten, die uns zehn Minuten eher wecken, wenn auf dem Weg zur Arbeit Stau herrscht. Doch bei menschlichen Sprache und der komplexen Abwägung, welche auf einer Plattform legitim sind und welche nicht, stößt die Technologie an ihre Grenzen.

Kultur ist nicht maschinenlesbar


Die merkwürdigen Meldungen, über die Mika und Kolleg:innen sich wunderten, kamen dadurch zustande, dass das System sich auf bestimmte Schlagworte gestürzt hat, die häufig problematisch waren. In einem anderen Kontext, etwa eine in einen Scherz oder Satire eingebette Beleidung, war ihre Verwendung jedoch vollkommen unproblematisch. „Am Anfang kam da ziemlich viel Schwachsinn,“ sagt Mika über die Proactive Queue. Mit der Zeit sei das System dann besser geworden. „Wir trainieren die KI, indem wir ihre Vorschläge als richtig oder falsch bewerten.“ Anfangs häufig wiederkehrende Fehlalarme seien nach einer Weile nicht mehr passiert. Dafür seien neue Fehler aufgetaucht.

Das Problem ist, dass die Unterscheidung dessen, was erlaubt und was verboten ist, in liberalen Gesellschaften eine komplexe Angelegenheit ist. Oft entscheidet der Kontext – und der ist für Maschinen schwer zu erfassen. Meinungsfreiheit ist ein relationales und fluides soziales Konstrukt, dass sich nicht in Formeln übersetzen lässt. Aus diesem Grund bekommen menschliche Moderator:innen bei der Bearbeitung von gemeldeten Chatnachrichten Mika zufolge nicht nur die eine Nachricht, sondern auch einen Ausschnitt des Nachrichtenverlaufs zu sehen.
Bei Bildern funktioniert die Automatisierung besser: „Pornographie erkennt die Software inzwischen ziemlich zuverlässig“, erzählt Mika. Etwa 96 Prozent der wegen Nacktheit wegmoderierten Bilder sind laut Facebook-Angaben durch „Erkennungstechnologie“ entdeckt worden. Wie Fehleranfällig KI aber auch in diesem Bereich ist, verdeutlicht der Versuch der Blogplattform Tumblr, pornographische Inhalte automatisiert löschen zu lassen. Neben harmlosen Comics sperrte das System auch ein Foto des ehemaligen US-Vizepräsidenten Joe Biden. Viel hängt davon ab, wie gut die KI trainiert ist – dass sie jemals zuverlässig legitime und illegtime Inhalte auseinanderhalten kann, darf bezweifelt werden.
Facebook selbst pflegt neben der Geschichte von KI als Rettung deshalb ein zweites Narrativ, das inzwischen noch häufiger betont wird: Am Ende würden alle relevanten Entscheidungen von Menschen getroffen. Die Software mache zwar Vorschläge zur Moderation, aber die Entscheidungshoheit liege bei den Moderator:innen. Niemand soll den Eindruck bekommen, Maschinen würden über das hohe Gut der Meinungsfreiheit entscheiden.

Technische Lösungen für soziale Probleme


Doch selbst, wenn jede Moderationsentscheidung am Ende durch einen Menschen geprüft wird, hat die Ausbreitung der Maschinen in der Content Moderation einen profunden Einfluss auf die digitale Öffentlichkeit. Er bedeutet nicht weniger als die Umkehr eines der Grundgesetze des Internets: Bisher durften auch unerwünschte Inhalte auf Plattformen so lange online bleiben, bis sie von irgendwem beim Betreiber einer Seite gemeldet werden. Auch für illegale Inhalte tragen Hoster erst dann eine Verantwortung, wenn sie darauf hingewiesen wurden und den Post trotzdem nicht löschen.
Dieses „Notice and Takedown“ genannte Prinzip ist in der EU in der E-Commerce-Richtlinie verankert und konstituierend für ein freies Internet. Bei Plattformbetreibern wie Facebook, Youtube und Twitter hat es lange Zeit zu Verantwortungslosigkeit im Umgang mit verletzenden Inhalten geführt. Aber es hat auch einen Teil der anarchischen Freiheit früher Internettage in die Welt der Plattformmonopole gerettet: Selbst in den Gruppen und Chats von Facebook war Raum für Inhalte, die gegen Regeln wie das rigide Nacktheitsverbot verstoßen.
Mit dem großflächigen Einsatz von Erkennungssoftware kommt Facebook der EU-Kommission zuvor, die derzeit darauf drängt, automatische Erkennung auszuweiten. Die hochumstrittene neue Urheberrechtsrichtlinie wird zur Folge haben, dass Plattformen Inhalte proaktiv und vor deren Veröffentlichung auf Urheberrechtsverletzungen untersuchen. In Anbetracht der täglich von Nutzer:innen veröffentlichten Inhalte ist dies nur durch automatische Systeme möglich. Auch für „terroristische Inhalte“ will die EU ähnliche Regeln. Was als verboten eingestuft wird, soll nicht nur erkannt werden, sondern gar nicht mehr gepostet werden dürfen. Trotz der bekannten Probleme bei der automatisierten Erkennung des kulturellen Kontextes von Inhalten setzt die EU auf technische Lösungen für soziale Probleme.
Wird diese Logik jedoch ausgeweitet, werden die unerwünschten Nebeneffekte zunehmen. Immer wieder werden Vorwürfe laut, das System schieße über das Ziel hinaus. Die Nichtregierungsorganisation Reporter Ohne Grenzen etwa machte 2016 auf den Fall des französischen Journalisten und Terrorexperten David Thomson aufmerksam. Sein Account wurde gesperrt, weil auf einem mehrere Jahre alten Bild die Flagge der Terrorgruppe Islamischer Staat/Daesh zu sehen war. Dass ein Mensch sich an dem von Thomson eingeordneten und damals noch nicht verbotenen Symbol störte, ist eher unwahrscheinlich. Stattdessen dürfte der Post in den Schleppnetzen von Facebooks Algorithmus gelandet sein.

Welche Öffentlichkeit wollen wir?


Tatsächlich könnte die automatische Inhalteerkennung sogar noch ausgeweitet werden: In einer vielbeachteten Petition fordert die Kampagnenorganisation Avaaz Mark Zuckerberg auf, automatische Filter auch in den bisher verschlüsselten WhatsApp-Chats zu installieren. Vor dem Hintergrund des von Falschnachrichten geprägten brasilianischen Präsidentschaftswahlkampfes soll dies gegen Desinformation helfen.
Kann Facebook also sein Moderationsprobleme mit Künstlicher Intelligenz lösen? Nur zu einem hohen Preis. Wenn wir über die Zukunft der digitalen Öffentlichkeit nachdenken, sollten wir deshalb gut überlegen, welche Bereiche wir tatsächlich an Maschinen auslagern wollen. Mark Zuckerberg sagt, seine Systeme seien in fünf bis zehn Jahren soweit, jegliche Inhalte sauber zu moderieren. Auch Mika selbst rechnet fest damit, auf Kurz oder Lang von der Software ersetzt zu werden: „Irgendwann sind wir überflüssig.“

Über diese Recherche und die Quellen:


Unser Wissen über die Organisation des Löschzentrums in Essen beruht auf einem mehrstündigen Gespräch von drei Redakteuren von netzpolitik.org mit einer Quelle bei Competence Call Center, die wir im Text geschlechterneutral Mika nennen. Wir können und wollen die Quelle, die wir für glaubwürdig halten, aus Gründen des Informantenschutzes nicht näher beschreiben. Wir sind uns der Probleme und des Risikos bewusst, dass wir uns in Teilen dieser Recherche nur auf eine Quelle stützen können. Deswegen haben wir weite Teile des Artikels durch andere Quellen, auch von anderen Facebook-Dienstleistern verifizieren und bestätigen lassen. Durch diese Quellen können wir heute sagen, dass bei allen Dienstleistern sehr ähnliche oder gar gleiche Systeme eingesetzt werden. Weite Teile dieser Recherche hat außerdem Facebook uns gegenüber bestätigt, die Dienstleister selbst gaben kein Statement ab.

Quelle


2.5.19

00205

Algorithmus gegen Alternative Medien: Google verliert mehr als 70 Milliarden Dollar an Marktkapitalisierung



Google verliert mehr als 70 Milliarden Dollar an Marktkapitalisierung, nachdem der Youtube-Algorithmus geändert wurde, um “Verschwörungstheorien” zu zensieren.


Die Video-Plattform gibt es seit weit über einem Jahrzehnt und ist zu einer der stärksten Marken von Google geworden. Allerdings ist es in letzter Zeit zu einem Problem für Google geworden.
Am Montag berichtete Googles Muttergesellschaft Alphabet, dass die Werbeeinnahmen um 15% stiegen, verglichen mit 24% vor einem Jahr. Dadurch wurde Google über ihre Aktien streng bestraft und am Dienstagnachmittag fielen diese um mehr als 8%.
Der Tod von YouTube?
In einer Erklärung sagte Porat, dass, während die YouTube-Klicks im ersten Quartal weiter stark anstiegen, sich die Wachstumsrate der YouTube-Klicks im Vergleich zum starken ersten Quartal des vergangenen Jahres verlangsamte, was auf Veränderungen zurückzuführen ist, die Anfang 2018 vorgenommen wurden.
Porat und Google haben nicht genau dargelegt, welche Änderungen bei YouTube zu dem schlechten Wachstum der Werbeeinnahmen oder irgendwelchen Aussagen nach dem, was am Montag gesagt wurde, führten. Es ist jedoch ziemlich einfach zu sehen, was mit YouTube vor einem Jahr Anfang 2018 geschah.
Nachteilige Veränderungen
Eine Reihe von Änderungen, die YouTube im ersten Quartal 2018 vorgenommen hat, haben sich als nachteilig für sein Engagement und damit für seinen Bestand erwiesen. Anfang 2018 begann Google, Änderungen an den Algorithmen von YouTube vorzunehmen, die darauf abzielten, schädliche Inhalte daran zu hindern, im Feed der empfohlenen Videos zu zeigen.
Das Ziel dieser Änderung war die Zensur so genannter Verschwörungstheorien, “Fake-News” und alles andere, was oft von Werbetreibende auf YouTube kritisierten. Anstatt den Benutzer zu einem “Verschwörungstheorie-Video” zu leiten, zeigt YouTube verwandte Videos aus “autoritativen” Nachrichtenquellen.
Zusätzlich zu den oben genannten Änderungen hat YouTube auch Millionen von Kanälen und Videos entfernt, die gegen die “harmful content policies” des Unternehmens verstoßen, insbesondere Alex Jones. Während es nur logisch erscheint, all diese schädlichen und falschen Videos von der Website zu entfernen, waren diese so genannten “Junk”-Videos einige der am höchsten engagierten Videos auf der gesamten Plattform. Sie hielten YouTube-Benutzer auf dem Laufenden, die ihre Feeds über das Video hinaus sehen konnten, das sie sich anschauten, selbst wenn das Unternehmen sagte, dass sie nur weniger als 1% aller Videos auf der Website ausmachten.
Moral ist wichtiger als Geld.
Dieses neue System mag zwar für das Gewissen der Führungskräfte von YouTube besser sein, ist aber noch lange nicht perfekt.
Während einer Erklärung spielte ein Google-Sprecher die Höhe der Einnahmen herunter, die durch “schlechte Inhalte” auf YouTube generiert wurden.
Darüber hinaus ging die Erklärung nicht auf die Auswirkungen der Beseitigung von Inhalten auf das Umsatzwachstum ein. Der Sprecher sagte, dass es ein Missverständnis darüber gebe, wie viel Geld YouTube mit der Empfehlung von Junk-Inhalten verdient.
Viele Menschen haben die Wahrhaftigkeit und Richtigkeit dieser Behauptungen in Frage gestellt und widersetzen sich den Änderungen der Zensur.
Die Zukunft
Trotz allem sagten Analysten am Dienstag, dass sie sich keine allzu großen Sorgen um die längerfristigen Aussichten von YouTube machen und warnten sogar, dass es andere Faktoren gibt, die verantwortlich für die Probleme des Werbeeinbruchs sind.
Allerdings hat Google bereits Milliarden an Marktkapitalisierung verloren und Analysten haben damit begonnen, die Aktien von Alphabet herabzusetzen. Die größte Frage rund um YouTube ist heute, ob es weiterhin Verbesserungen an der Zensur und der Überwachung der schlechten Inhalte vornehmen wird.
Könnte dies das Ende von Google sein? Das hoffen viele.
Google loses more than $70 billion in market cap after changing Youtube algorithm to censor “conspiracy theories”