Da unsere Mods heute wiederholt eingehendes CSAM von lemmy.word entfernen mussten, ist lemmy.world vorübergehend deföderiert.

  • nachtigall@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    8
    ·
    1 year ago

    Meine Frage ist eher generell: Wie kann man sich innerhalb der Föderation gegen so etwas wehren?

    Das kommt auf den Umfang und die Verbreitung an. In diesem Fall ist ja nur eine einzelne Community betroffen, in die das gepostet wurde. Die offensichtliche und erste Reaktion ist natürlich das Entfernen der Inhalte und Blockieren der Person, um zu verhindern, dass mehr rüber kommt. Nun kommen dabei mehrere Accounts zum Einsatz, aber immer noch in nur ein Community. Deshalb wäre die nächste sinnvolle Reaktion diese Community (vorerst) zu deföderieren. Leider unterstützt Lemmy das nicht, weshalb wir die Ultima Ratio heranziehen und die gesamte Instanz deföderieren müssen.

    Wenn man aber davon ausgeht, dass so etwas Spam-artig über verschiedene Communities und Instanzen hinweg auftritt, wird das nicht mehr praktikabel. Deshalb muss der logische Schritt sein, die Moderationstools, welche Lemmy zur Verfügung stellt, weiterzuentwickeln, sodass mit solchen Dingen umgegangen werden kann.

    Ein erster Schritt etwa wäre überhaupt erstmal Beiträge mit Medien zu verknüpfen. Momentan müssen wir Medien, die hochgeladen wurden, per Hand entfernen, da weder die remove noch die purge Funktion Daten aus dem Medienbackend pictrs entfernt. Das würde uns schonmal dahingehend helfen, dass wir illegale Inhalte schnellst möglich komplett entfernen können, um nicht wegen Speicherung derer legale Konsequenzen befürchten zu müssen. Weiterhin muss sichergestellt werden, dass auch gecachte Inhalte von fremden Instanzen entfernt werden, wenn man die Beiträge entfernt.

    Zusätzlich zum manuellen, reaktiven Vorgehen könnte man Lemmy auch um automatische Erkennungsmechanismen erweitern, welche entsprechende Inhalte proaktiv entfernen, etwa indem man Dienste wie PhotoDNA oder SafeIO anbindet, um bekanntes Material auszusortieren. Die Kollegen von dbzer0 haben auch ein ML-Modell entwickelt, welches CSAM erkennen soll, was man nutzen könnte.

    Letztendlich wird man das nicht gänzlich automatisieren können und Moderatoren werden immer gefragt sein (die großen Netzwerke haben da auch ganze Abteilungen für (bzw. lagern das an Dienstleister aus)). Dort würde es sich anbieten, wenn es noch eine Art instanzweite Mod-Rolle gebe, die zwar Inhalte entfernen (ggf. auch restlos!) können, aber nicht mit den Servereinstellungen herumspielen können, so wie es gegenwärtig der Fall ist. Je mehr Augen, desto besser, und momentan ist ja so, dass nachts mitteleuropäischer Zeit einfach keiner von uns wach ist, um zeitig auf sowas reagieren zu können.

    Das Freigeben von Posts wäre sicherlich auch noch einen nettes Feature, aber in diesem Zusammenhang wahrscheinlich nicht sehr hilfreich.

    Also wie man sieht, gibt es schon einige Sachen, die die Entwickler machen könnten, um zumindest die Bekämpfung zu vereinfachen und auch eventuelle legale Konsequenzen für den Betreiber zu verhindern. Wenn es unter euch ein paar eifrige Entwickler gibt, wäre das großartig, wenn etwas von dem oben genannten umgesetzt würden könnte. Mir fehlt leider etwas Zeit und Know-How dafür.