Wir verfolgen einen kompetenzorientierten Ansatz, der Jugendliche in ihrer Mediennutzung und Medienproduktion begleitet und gleichzeitig ermuntert, mediale Trends, Produkte und den eigenen Medien-Konsum kritisch zu hinterfragen.
Wir suchen nach Lösungen, wie Kommunikation, insbesondere das Lernen, von und mit Jugendlichen und digitalen Medien nachhaltig gestaltet werden. Gleichzeitig sind wir der Meinung, dass Heranwachsende „digitale Schutzräume“ benötigen. Aus diesem Grund haben wir ein Curriculum der Medienbildung entwickelt. Wir freuen uns auf und über Austausch und Debatten darüber.
Digitalisierung birgt unendliche Chancen. Sie verändert zugleich die Art, wie wir miteinander kommunizieren oder uns persönlich ausdrücken. Wir thematisieren, wo das in wünschenswerter Weise geschieht, aber auch, was der Preis dafür ist.
Eine medial gestützte Pädagogik in Schulen sollte Heranwachsenden digitale und analoge Anreize zum Anfassen, Entdecken, Erkunden, Begreifen und Verstehen anbieten und unterscheiden können, wann bei wem welche Lehrmethode die besten Ergebnisse bringt.
Das setzt digitale Inklusion = „DInklusion“ voraus.
Wenn durch die Nutzung digitaler Medien die „Bildungsschere“ nicht zusätzlich wachsen soll, brauchen wir ab- und ausgewogene digitale Lernmethoden, die bei den Schüler*innen ansetzen. Zugleich müssen auch die Zugänge zur digitalen Kommunikation fair sein. Das betrifft im besonderen „Künstliche Intelligenz“ (KI)
Die Stiftung Neue Verantwortung hat in einem im Juli 2023 veröffentlichten Papier darauf hingewiesen, welche politischen und gesellschaftlichen Risiken der Einsatz von KI beinhaltet. Die Autorinnen fassen sie in einem Schaubild zusammen:
Insbesondere 1/B, also Falschinformationen und die Verletzung in Privatspähren sind Risiken beim Einsatz von KI, die Schulen, oder besser: Schülerinnen und Schüler in besonderem Mass treffen können.
Chat GPT kennt keine Wahrheit. Fakten und Blödsinn sind für eine KI gleichberechtigt.
Wir setzen uns für eine Kennzeichnungspflicht für alle mit KI erstellten Erzeugnisse ein, sofern diese Informationen öffentlich verbreitet werden. Die Kennzeichnungspflicht sollte privat hergestellte als auch kommerzielle Erzeugnisse umfassen.
Ziel einer Kennzeichnung ist, jeden Nutzer darüber zu informieren, was echt ist und was künstlich erstellt wurde.
Quellen-Transparenz
Die Kennzeichnung muss erklären, wie und unter welchen Bedingungen Ergebnisse erstellt wurden. Es ist unzureichend, eine KI wahllos mit Texten aus dem Internet zu füttern.
Nachvollziehbarkeit
Die Kennzeichnung muss einfach sein, die Verwendung von Quellen / Programmen umfassen und das Ergebnis nachvollziehbar erklären.
Gütesigel für vertrauenswürdige Hersteller
Das Ziel muss eine „gläserne Datenverarbeitung“ sein. Dazu gehört, dass alle Nutzer dieselben Zugänge zu Daten bekommen und „Zwei-Klassen-Systeme“ ausgeschlossen sind. Deutlich werden muss auch, wer andere Nutzer der Daten sind.
Nicht ohne „Dinklusion“ und „KInklusion“
Schon heute klafft die Schere weit auseinander zwischen Jugendlichen, die „kritisch-souverän“ digitale Medien nutzen und Jugendlichen, die digitale Medien zum eigenen Schaden nutzen, weil digitale oder persönliche Fähigkeiten fehlen, um sich hinreichend gegen Manipulation abzugrenzen.
„KI sollte nicht als Autorität, sondern als Werkzeug gebraucht werden.„
Nach unseren Erfahrungen fehlt rund einem Drittel aller Schüler*innen die Fähigkeit, Quellen zu prüfen, Informationen zu gewichten und Ergebnisse zusammenzufassen. Ja mehr noch: eigentlich haben sie schon Probleme, ihr Passwort so abzuspeichern, dass es wieder aufgerufen werden kann.
Im Umgang mit KI ist nicht nur die Bedienerfähigkeit, sondern eine kritische-reflektive Haltung unabdingbar. Nur so sind technologisch erzeugte Information beherrschbar.
Chat GPT bemerkt selbstkritisch:
Mein Modell wurde mit einer großen Menge an Textdaten trainiert, (…) spiegln aber nicht immer die Vielfalt der Meinungen, Kulturen und Perspektiven wider. Dies kann zu einer Datenbias führen, der sich in meinen Antworten zeigt.
Der Wissenschaftsjournalist Rangar Yogeshwar erinnert:
„Manche behaupten, man könnte eine Abbildung der realen Welt in die digitale Welt machen. Ich sage: Das stimmt nicht. Maschinen können nur bestimmte Dinge messen. Aber es gibt so viele feine Signale – was sich nicht transportieren lässt. Und wenn wir es behaupten, dann negieren wir das, was uns Menschen auszeichnet.
Alexa – dieser Kasten – redet vom Wetter. Und weiß nicht, was es ist. Sie weiß nicht, wie sich Regen im Mai auf der Nase anfühlt.