Wie kann eine soziale, bzw. verbrecherische, Nutzung der AI/KI - Bots oder Agenten - eingeschrÀnkt werden?

Auch wenn viele Begeisterten dieser Technik es augenscheinlich nicht wahrhaben wollen - es gibt sie, die missbrÀuchliche Verwendung.

Was muss getan werden, um so etwas einzuschrÀnken?

{Eine juristische Formulierte EinschrÀnkung ist, gegen eine missbrÀuchliche Verwendung, bekanntlich wirkungslos}

{Nicht hilfreich ist einer der folgenden VorschlĂ€ge und Handlungen: “ich will nicht darĂŒber reden", “die Menschen sind selber verantwortlich", “So einer wie Du versteht das nicht", schreien, drohen, stierer Blick, das Wort verbieten sowie alles was mit Gewalt und BrutalitĂ€t zu tun hat.}

Der u.a. Artikel ist nur eines der Beispiele: wie die Bots oder Agenten, zum Schaden von Menschen, Technik und Wirtschaft, verwendet werden, können.

1 „GefĂ€llt mir“

Lieber Thomas,

natĂŒrlich gibt es unerlaubte Nutzung.

Es werden auch Menschen auf der Straße erstochen. Trotz anderslautender Gesetze.

Es gibt auch sehr viele Sicherheitvorschriften, damit Unternehmen verpflichtet werden sich sicherheitstechnisch zu ĂŒberlegen was sie tun, um SicherheitslĂŒcken zu vermeiden. (Unerlaubter Zugang -heißt es war schon verboten / untersagt / nicht gewollt)
Gelingt es immer? Nein.

Ja, wir brauchen Regeln.
Können wir mit Verboten alle Probleme lösen? Nein.

ZusĂ€tzlich: Anthropic versucht gerade einen Börsegang. Daher tun sie was sie tun - Medienaufmerksamkeit schĂŒren. Niemand weiß wie gut Mythos wirklich ist. Sie bauen einen Mythos darum auf - weil sie wollen dass der Börsekurs steigt.
Die Geschichte mit dem US Kriegsministerium war vermutlich auch ein PR Stunt um Anthropic in die Medien zu bringen.

Werner

PS: Es ist nicht so, dass wir Probleme nicht wahrhaben wollen - aber wir sehen auch nicht ausschließlich Probleme.

Wir wollen Zukunft positiv gestalten.

1 „GefĂ€llt mir“

Dann mĂŒsst ihr vorausschauen und nicht nur euren WĂŒnschen folgen. Vorausschauen bedeutet: auf pro und Kontra zu schauen und beide Seiten berĂŒcksichtigen.

PS: Wir haben unter uns etliche pÀdagogisch geschulte Leute und ich warte noch immer auf den positiven Vorschlag, wie wir den Nichttechnikern, Mediziner, Tischler, u.a., den richtigen grundsÀtzlichen Umgang mit den Bots und Argenten vermitteln können.

Ich höre immer (auch von unserer Gemeinschaft) nur gejammere: daß die Leute nicht damit umgehen können (kein Wunder bei der Desinformation durch die Journallie) aber aufraffen gut sich keiner. {DafĂŒr werden alle, welche sich damit beschĂ€ftigen (ausgenommen 2-3 Gurus) verbal totgeprĂŒgelt}

Machen wir schon etwas auf dem Bereich? Ja.

Könnten wir mehr machen? Immer.
Wer wĂŒrde diese Schulungen gratis halten? (Ich nicht. Ich habe keine Bandbreite mehr)
Freiwillige fĂŒr ein Engagement vor 
 (frage ich seit 2 Jahren)
Woher bekommen wir die Finanzierung?
Dann wÀre es nachhaltig möglich.
Wo möchtest Du Dich aktiv einbringen
(außerhalb der guten Tipps - frage ich auch seit 2 Jahren).

AktivitÀten zum Thema KI:

  • Andi hĂ€lt jedes Monat VortrĂ€ge auch EinfĂŒhrungsvortrĂ€ge fĂŒr Jedermann
  • Wir haben unzĂ€hlige Artikel zu dem Thema veröffentlicht
  • Christian beschĂ€ftigt sich wie wir KI vor allem in den HTL’s besser integrieren
  • Hans trĂ€gt zum Thema KI Integration in Hausautomatisierung vor.
  • Ich beschĂ€ftige mich mit dem Thema digitale UnabhĂ€ngigkeit und KI

Danke an Stefan, Roland, Andi, Andrea, Brigitte, Erwin, Martin, Christian und viele andere die sich aktiv einbringen.

Wir wĂŒrden gerne Spaß und Freude bei unserer Arbeit haben.
Aktuell ist das nur bedingt der Fall.

Jeder ist willkommen sich konstruktiv einzubringen.
Statler und Waldorfs sind nur bedingt hilfreich.

2 „GefĂ€llt mir“

Ich bin ja voll dabei, sich pro und contra anzusehen. Und ich berĂŒcksichtigte dabei auch, ob etwas auch im Prototypen stadium im labor befindet oder tĂ€glich genutzt wird, in welchem Bereich etwas genutzt wird (geht es um ein Komma im Satz oder um einen Herzschrittmacher oder ein Atomkraftwerk).

Ich erstelle professionell Chancen- Risikoanalysen fĂŒr Unternehmen und Politik und kenne mich daher mit den notwendigen Differenzierung aus.

Ich bedaure es aber, dass ich insbesondere in Österreich hĂ€ufiger ein paar GlaubensĂ€tze beobachten kann, die ich als Selbstausbremsend wahrnehme:

  1. Erstmal ist alles verboten, es sei, es ist ausdrĂŒcklich erlaubt.
  2. Die Frage der Haftung ist entscheidend: Solange die geringste Wahrscheinlichkeit eines Restrisikos besteht, wird zur Sicherheit erstmal gar nichts gemacht.
  3. Falls sich sonst noch irgendwo FreirÀume ergeben sollten, wird zusÀtzlich alles vollstÀndig mit Geboten und Verboten reguliert.
  4. Jemand darf nur dann etwas denken, sagen oder tun, wenn er dafĂŒr einen staatlichen Kompetenz Nachweis (BefĂ€higungsnachweis) erbringen kann.
  5. Beamtenmikado: Jeder, der sich bewegt, etwas in Angriff nimmt, ausprobiert, ist ein Staatsfeind.
  6. Bevormundung: die Menschen sind unfĂ€hig, frei zu entscheiden oder Risiken einzuschĂ€tzen. Daher mĂŒssen alle Menschen kollektiv ungefragt gemassregelt und zwangbeschĂŒtzt werden.
  7. Jeder, der Spaß und Lebendigkeit und neugierige und experimtierfreude und Risikobereitschaft ausstrahlt, gilt als Fremdkörper.

Es mag fĂŒr diejenigen, die meinen, sich aus durchaus positiven Absichten hier zu Ă€ußern unangemessen erscheinen, was ich hier als AuslĂ€nder schreibe: aber jedes mal, wenn ich nach Österreich komme, erlebe ich einen Kulturschock.

Anderswo in der Welt gibt es mehr Zuversicht und Lebensfreude und mir erschließt es sich nicht, warum man sich davon nicht inspirieren lassen möchte.

Ich muss mich hier doch auch noch “einmischen”.

Eine dieser mißbrĂ€uchlichen Anwendungen von KI besteht ja darin, Ergebnisse aus ( z.B. generativer ) KI, so zu prĂ€sentieren, wie wenn sie nur durch menschliche Urheber/ Autoren/KĂŒnstler - ganz ohne Benutzung von KI-Systemen - geschaffen worden wĂ€ren.
Genauso ist die Simulierung eines menschlichen GesprĂ€chspartners (z.B. am Telefon), ohne solche Partner vor dem Beginn eines GesprĂ€ches ausdrĂŒcklich als kĂŒnstliche (maschinelle) Partner auszuweisen, ein Mißbrauch von KI-Systemen bzw. zumindest eine absichtliche TĂ€uschung menschlicher GesprĂ€chspartner .

Als Schutz gegen solchen Mißbrauch ist ja angeblich vorgesehen, KI-generierte Ergebnisse auch eindeutig als solche - von KI (bzw. unter Mitwirkung von KI) erstellte Ergebnisse - zu kennzeichnen.
Gleichzeitig wird es aber immer schwerer - und ist es fĂŒr Laien schon jetzt nicht mehr möglich, KI -generierte Ergebnisse ĂŒberhaupt noch als solche zu erkennen.

Ich verstehe daher nicht, wie Verletzungen dieser Kennzeichnungspflicht geahndet werden sollten, wenn diese Verletzungen allein durch Untersuchung der (nicht gekennzeichneten) Ergebnisse aus KI-Systemen gar nicht mehr erkannt werden können und umgekehrt dann sogar alle Ergebnisse - aus/fĂŒr alle Anwendungsbereiche solcher Ergebnisse, in denen möglicherweise KI-Systeme verwendet werden könnten -untersucht werden mĂŒssten, um Verletzungen der Kennzeichnungspflicht noch nachweisen zu können - wenn es ĂŒberhaupt noch Möglichkeiten gĂ€be, die Verwendung von KI-Systemen nachzuweisen.

Nur darauf zu vertrauen, dass sich Anwender von KI-Systemen an diese Vorschriften halten werden, scheint mir angesichts der Reichweite ( z.B. von massenhaft erfundenen und verteilten Fake-Meldungen, Fake-Bildern , Fake-Videos, .. ) und der Möglichkeiten massiver negativer Auswirkungen von KI-Systemen auf unsere Gesellschaft, doch ein wenig “blauĂ€ugig” zu sein.
Denn “Böse Buben” beachten nur eine einzige “Vorschrift” : Die Durchsetzung der eigenen Interessen und die Wahrung des eigenen Vorteils - ohne RĂŒcksicht auf Verluste anderer.
Alle anderen Vorschriften sind fĂŒr sie vollkommen belanglos - vor allem dann, wenn ihre Missachtung nicht wirkungsvoll geahndet wird.

Oder umgekehrt wie beim BĂ€cker: Kennzeichnung als Handarbeit

Lieber Erich,

welche VorschlÀge zur Lösung des Problems hast Du?

LG Werner

Es gibt auf europÀischer und nationaler Ebene zahlreiche Regulierungen, die auch auf Softwareprodukte und damit auch auf KI Systeme anzuwenden sind.

Hier werden zunÀchst in drei Verantwortungsebenen angesetzt:

  1. Der Inverkehrbringer (der Hersteller oder - Falles es sich um einen außer-EU-Hersteller handelt, der Importeur oder VerkĂ€ufer)
  2. Der Betreiber (z.B. das Unternehmen, dass damit etwas herstellt
  3. Der Verwender.

Bei ChatGPT im Unternehmen ABC AG wÀre:

  1. Inverkehrbringer: OpenAI
  2. Betreiber: Firma ABC AG
  3. Anwender: Mitarbeiter Gruber

Zudem muss an Hand einer Risikobeurteilung das Produkt in verschiedenen Gefahrenklassen eingeteilt werden. Von „völlig harmlos“ bis „mordsgefĂ€hrlich“.

Je nach Gefahrenklasse hat je nach Verantwortlichkeitesebene jede Instanz entsprechende geeignete Maßnahmen zu treffen, die bei besonderem GefĂ€hrdungspotential sogar von externen Stellen ĂŒberwacht werden mĂŒssen (Zertifizierungen, wie das Pickerl beim Auto).

Das sieht beim Anwender dann sogar evtl. geeignete Schulungemassnahmen vor, das 6-Augen-Prinzip, vollstÀndige Dokumentationen, etc.

Bei besonderen GefÀhrdungen ist sogar eine Kennzeichnungspflicht erforderlich (Achtung: Explosiv)

Alle Ebenen haben hier eine Sorgfaltspflicht. Da kommt niemand aus.

Alleine die vorhandenen Regularien sind schon sehr umfassen und sich auch von jedem neuen Produkt sinngemĂ€ĂŸ anzuwenden.

Denn es ist wie bei allen Regularien, dass es ein mehrstufiges Konzept gibt: allgemeine Regularien, wie das ABGB bis hin zu extrem speziellen und detaillierten wie die Chemiemittelverordnung.

Es muss nur angewendet werden.

Und die meisten Unternehmen in Europa, die ich kennen und hier Produkte vertreiben, gehen da auch sehr gewissenhaft vor. Die sind dann leider immer die Mitleidenden, die den Kopf hinhalten mĂŒssen, wenn Ganoven in betrĂŒgerischer und fahrlĂ€ssiger Weise Mist bauen.

Und was sich gerade so in der Welt tut, derweil hier in der EU von vielen „Stillgestanden!“ gebrĂŒllt wird.

BTW: Auch wir im Verein arbeiten daran, Prozesse mit und ohne KI zu automatisieren. Aber nicht, weil wir das cool finden. Sondern weil diejenigen, die aktiv sind, in ihrer ehrenamtlichen Arbeit untergehen, zu wenige der Vereinsmitglieder mit anfassen und wir als Verein derzeit nicht das Geld haben, Leute zu bezahlen, die die Arbeit machen, auf die hier scheinbar niemand Bock hat. Diese Arbeiten sind aber notwendig, um den Verein und den Betrieb aufrecht zu erhalten.

Man könnte auch sagen: Der Einsatz der KI ist notwendig, da „FachkrĂ€ftemangel“ herrscht.

Sinnvolle VorschlĂ€ge zur Verhinderung des Missbrauches von KI-Systemen könnten nur von “Wissenden” kommen.
Ich bin hier nur Laie und kein “Wissender”.

Von “Wissenden” wurde ja die Kennzeichnung von KI-Ergebnissen vorgeschlagen, um IrrefĂŒhrung, TĂ€uschung und Manipulation durch die Anwendung von KI wirksam verhindern zu können.
Diese “Wissenden” kennen daher sicher auch die Vorgangsweise, wie zur BekĂ€mpfung missbrĂ€uchlicher Anwendung von KI vorgegangen werden soll - z.B. welche Beweismittel zu sammeln wĂ€ren, um gegen missbrĂ€uchliche Verwendung von KI tatsĂ€chlich vorgehen zu können.

Ich gehe daher davon aus, das es auch Wissende geben könnte , die meine Frage beantworten können :

Wie könnte die bewusste Umgehung/Missachtung einer Vorschrift geahndet werden, wenn deren Verletzung nur mit großem Aufwand (bzw. gar nicht mehr) erkennbar ist und die möglichst lĂŒckenlose Erkennung von Verletzungen erfordert, alle denkbaren FĂ€lle ihrer möglichen Verletzung zu untersuchen - auch dann, wenn diese Kennzeichnungspflicht in vielen FĂ€llen gar nicht verletzt worden ist, weil KI gar nicht eingesetzt wurde ?

Das Àndert aber an der TÀuschungs-Problematik nichts.
Auch beim BÀcker könnten mit vergleichsweise geringen Kosten produzierte Maschinen-Semmeln in TÀuschungsabsicht als teuer verkaufte Hand-Semmeln deklariert werden. Dort werden aber vermutlich viele Kunden diese TÀuschung noch vor dem Bezahlen an der Kassa bemerken können.

Mit genau den gleichen Argumenten werden auch in Unternehmen KI-Ergebnisse vollautomatisiert - ohne menschliche ÜberprĂŒfung und Freigabe jedes Einzelergebnisses - weiterverarbeitet.
Da viele Hersteller von KI-Systemen in den von ihnen herausgegebenen Benutzungsvorschriften die vollautomatisierte Weiterverabeitung von Ergebnissen aus ihren KI-Systemen - ohne vorherige menschliche PrĂŒfung dieser Ergebnisse - explizit untersagen, wĂ€re meiner Meinung nach sogar die Vollautomatiserung von (GeschĂ€fts-) Prozessen mit UnterstĂŒtzung durch ungeprĂŒfte Ergebnisse aus KI-Systemen als missbrĂ€uchliche Verwendung von KI-Systemen zu werten.

Was wÀre der Lösungsvorschlag?

Übrigens: Ich habe unlĂ€ngst eine Doku gesehen: Viele BĂ€cker in Deutschland verwenden Backmischungen und verkaufen das Brot ohne entsprechende Deklarierung . Es ist exakt 1:1 des Brot dass es auch im Supermarkt gibt. (Und nein - die Kunden erkannten es nicht).

Nun, was verstehen wir heute denn unter „KI-Systemen“? In der „Öffentlichkeit“ und im Marketing steht das doch mittlerweile fĂŒr „wir von einem Computer“ gemacht. Was eigentlich korrekt ist, steht der Begriff „artificial intelligence“ in seinem ursprĂŒnglichen Sinn ja fĂŒr „maschinelle Datenverarbeitung“.

Kann das Ergebnis eines Computers falsch sein? Aber sicher. Das ist nicht auszuschließen. Es kann an der Hardware liefen, an der Software (und der Unvollkommenheit der Programmierer), an den verwendeten Daten.

In manchen Bereichen haben wir schon eine ziemlich gute VerlÀsslichkeit erreicht. Der Taschenrechner liefert bei den Grundrechenarten fast immer korrekte Ergebnisse.

Auch andere Einsatzgebiete sind mit der Zeit immer besser und besser geworden: OCR-Erkennung von Texten, Erkennung und Synthese von Sprache. Automatisch Erfassung und Analysen von Daten, Ablaufprogramme fĂŒr Interaktionen mit physischen Objekten (z.B. Steuerung von Maschinen), Verbesserung von Fotos.

In vielen Bereichen vollrichten Computer im Hintergrund fleissig und verlÀsslich Aufgaben, ohne dass wir uns dessen bewusst werden.

Ja, und es sind viele Aufgaben dabei, die auch auf die FĂ€higkeiten musterbasierter Systeme wie neuronale Netze zurĂŒckgreifen. Das ist erstmal kein Problem. Auch Human in the Loop. Das war vielleicht mal in den jetzt gut funktionierenden Bereichen notwendig gewesen, ist derzeit aber ĂŒberflĂŒssig, weil die Systeme erwiesener Maßen gut laufen.

Es geht eher darum, die Bereiche und Prozesse zu identifizieren, die derzeit nicht nicht ausreichend gut laufen und deren Auswirkungen gravierend sein könnten.

Wenn wir mit einer Automatisierung und einer KI automatisch aus einer lĂ€ngeren EventankĂŒndigung eine Kurzfassung generieren, die wir anschließend in einem Post veröffentlichen, sind die Fehler, die dabei passieren könnten, eher ungeeignete Formulierungen, und deren Auswirkungen eher peinlich, aber nicht weltbewegend.

Persönlich erlebe ich um im Umgang mit der KI eigentliche keine dramatischen FĂ€lle, die durch die KI kommen, sondern eher die klassische Situation, dass der Mensch mit dem bullshit den er ins System fĂŒttert oder dem bullshit, was er erwartet, den bullshit bekommt, den er verdient.

Eine “Lösung” scheint es ja zu geben, sonst wĂ€re doch sicherlich nicht die Kennzeichnung von Ergebnissen aus KI-Systemen vorgeschlagen worden, um absichtliche (bzw. “kriminelle”) TĂ€uschung und IrrefĂŒhrung durch Ergebnisse aus KI-Systemen zu verhindern.

Ich kann aber nicht verstehen - bzw. erkennen - wie solch eine Kennzeichnung die missbrĂ€uchliche Verwendung von KI-Systemen fĂŒr bewusste TĂ€uschung und IrrefĂŒhrung verhindern soll.

Noch einige Bemerkung zum “Semmel-Problem” :
TatsÀchlich handgemachte Semmeln gibt es seit vielen Jahrzehnten nicht mehr.
Kunden fehlt daher schon sehr lange jede Vergleichsmöglichkeit, um allfĂ€llig heute in TĂ€uschungsabsicht als “Handsemmel” deklarierte Produkte aus maschineller Produktion von echten Handsemmeln aus vormaligen Handwerksbetrieben der BĂ€cker ĂŒberhaupt noch unterscheiden zu können.
Eines der Kennzeichen fĂŒr Handsemmeln war gerade der Umstand , dass jeder BĂ€cker ursprĂŒnglich seine eigenen Teig- bzw. Back-Rezepte verwendet hat.
Warum sollte ein BĂ€cker seine Produkte fĂŒr SupermĂ€rkte speziell deklarieren, wenn er die gleichen Rezepte und Maschinen, wie industriell arbeitende GroßbĂ€ckereien verwendet ?

Weil wir dann in Europa/Österreich ganz rasch die gleichen politischen/wirtschaftlichen Entwicklungen bzw. VerhĂ€ltnisse zu beobachten/erleiden hĂ€tten, wie sie derzeit schon lĂ€nger in den USA - dem Land der unbegrenzten Möglichkeiten - beobachtet werden mĂŒssen - die nun negative Auswirkungen auf die gesamte Weltgemeinschaft haben.

Ein Übermaß an Zuversicht und leichtsinnigem Vertrauen in FĂŒhrungspersönlichkeiten hat dort dazu gefĂŒhrt, dass die auch negative Bedeutung der Formulierung “ungegrenzte Möglichkeiten” dort offenbar vollkommen ĂŒbersehen wurde und negative Entwicklungen in Richtung Autokratie nie als mögliches Szenarium in den USA in ErwĂ€gung gezogen wurden, um eintretende Entwicklungen in diese Richtung doch noch rechtzeitig korrigieren zu können.
Erschwerend - die negativen Entwicklungen beschleunigend - kommt, dann dort auch noch die vollstĂ€ndige Kontrolle der “Digitalen Welt” durch die autokratischen Herrschaftstrukturen hinzu.
Jeden Mitwirkenden an der “Digitalen Welt” trifft daher eine gewisse Mitschuld an diesen Entwicklungen.

Wie sollte daher besondere Zuversicht hier bei uns in Europa/Österreich “ausbrechen”, wenn ganz Ă€hnliche Entwicklungen, wie in den USA, auch bei uns in Europa/Österreich zeitverzögert zu erwarten sind und in Teilbereichen der Politik auch bereits zu beobachten sind ?

LIeber Erich,

Ich halte die Backmischungen als exakt das gleiche Problem wie KI Generierte Inhalte, die Menschen betrĂŒgen.

Eigentlich erwarte ich mir vom BĂ€cker - Meister-Backkunst und nicht zugekaufte Mischungen.

Deklaration hilft wie Du schreibst nichts. Es ist einfach Standard, dass es ohnehin die meisten nicht mehr so genau nehmen mit der Handwerkskunst. Menschen wollen billige Semmeln, die bekommen sie.

Außer ich gehe zu Josef-Brot. Da bekomme ich ein Josefbrot um Knapp 10 Euro - aber es schmeckt auch ganz anders als das gewohnte Brot.

Die Menschen haben eine Wahl. Sie mĂŒssen sich dessen aber gewusst sein - und QualitĂ€t (mit ihrem Kauf) einfordern.

Wenn ich Journalismus will mit gesicherten Quellen, dann muss ich Journalismus auch bezahlen. Sonst bekomme ich halt auch eine Geschichte, mit Bildern. Ob die der Wahrheit entspricht - weiß man nicht genau. Was konsumieren viele Leute: Österreich, TĂ€glich Alles, oder halt irgendwas aus dem Internet das mir von Social Media vorgeschlagen wird.

LG Werner

1 „GefĂ€llt mir“

Lieber Werner,

Backmischungen und QualitĂ€tsprodukte vom BĂ€cker, gehören aber zu einer ganz anderen Kategorie von Problemen, als jene der unbegrenzten Möglichkeiten autokratisch agierender FĂŒhrungpersönlichkeiten von Staaten in Zusammenwirken mit nicht minder autokratisch gefĂŒhrten Unternehmen der “Digitalen Welt” , die die neuesten und wirksamsten Methoden, GerĂ€te und Systeme zur Etablierung , StĂ€rkung und Aufrechterhaltung autokratischer Herrschaftsysteme liefern und betreiben.

Das auch mit industriellen Standard-Backmischungen mögliche VortÀuschen handwerklicher QualitÀt vormaliger BÀckermeister mit den TÀuschungsmöglichkeiten ( und deren Folgen ) durch KI-generierte Inhalte zu vergleichen, ist aus meiner Sicht die gleiche unzulÀssige Verharmlosung, wie der Vergleich der Anzahl der durch UnfÀlle in/an Wasserkraftwerken getöteten Personen mit der Anzahl der in Atomkraftwerken getöteten Personen, um damit dann die Unbedenklichkeit und UngefÀhrlichkeit von Atomkraftwerken zu betonen.

L.G. Erich

Lieber Erich,

das mag sein, aber was möchtest Du gegen Donald Trump unternehmen, der fake Videos ĂŒber den PrĂ€sidentenaccount verteilt.

Er hĂ€tte vermutlich auch genĂŒgend Ressourcen zur VerfĂŒgung um solche Videos auch ohne KI Mithilfe zu erstellen.

Zudem liegen diese autokratischen FĂŒhrungspersönlichkeiten vollstĂ€ndig außerhalb unseres Einflussbereichs (wir konnten ihn nicht einmal nicht wĂ€hlen).

Wir sollten uns auf die Dinge konzentrieren, auf die wir irgend einen Einfluss haben. Es gibt dazu folgende Grafik:

Ich glaube ich habe sie schon einmal hier gebracht.

Autokraten die KI verwenden um Missinformation zu streuen fallen in den

Circle of Concern.
Wir mögen davon als Menschen irgendwie betroffen sein, haben aber ĂŒberhaupt keinen Einfluss darauf. (rot) Wir können uns darĂŒber Sofgen machen, bekommen aber davon maximal Schlafstörungen oder Magenschmerzen. Daher ist es besser sich auf diese Dinge nicht zu fokussieren. Es schadet einam nur selbst.

Besser ist es, wenn man sich auf die folgenden beiden konzentriert:

Circle of Influence
Hier gibt es die Möglichkeit auf andere einzuwirken, die etwas erreichen können. EuropĂ€ische Politik oder Österreichische Politik. Wir können uns auch zusammentun um mehr zu erreichen. Hier gibt es eine Chance auf Wirksamkeit. Das ist auch der Grund warum es Vereine wie unseren gibt.

Circle of Control
Hier kann ich Dinge vollstÀndig selbst kontrollieren oder verÀndern. Ich kann mir ein Elektro Auto kaufen oder einen Benziner. Ich kann Brot kaufen, das nach etwas Schmeck und qualitativ hochwertig ist, oder das Industriebrot. Ich kann chinesische Schrottprodukte um 5 EUR kaufen und mich freuen, oder eben nicht. Der Bereich ist der wo ich wirklich selbst etwas verÀndern kann.

Ich habe das GefĂŒhl, dass hier im Forum (und auch im echten Leben) oft die Probleme im Circle of Concern aufgezeigt werden.

Es geht uns nicht gut, dass die Straße von Hormus geschlossen ist - und Benzin teuer wird. Das können wir nicht kontrollieren. Wir können aber unser Benzinauto verkaufen und eines mit elektrischem Antrieb kaufen, dann ist uns die STraße von Hormus ziemlich egal.

Das ganze Prinzip nennt sich Selbstwirksamkeit und ist eines der psychologischen Grundprinzipien, die man einsetzen kann, damit es einem besser geht. Auf das konzentrieren, wo wir Einfluss haben.

LG Werner

1 „GefĂ€llt mir“