Ich vermute Du hast noch nicht viel mit ChatGPT gearbeitet, sondern beschränkst Dich aufs Schauen, sonst würdest Du das hier nicht schreiben:
Wie und Warum, jetzt allerdings AI in aller Munde ist und warum ein ChatBot mit dem IQ eines Kleinkindes die persönlichen Probleme eines Benutzers lösen können soll - das ist mir ein Rätsel.
Ich habe das Gefühl Du sehnst Dich nach einer “perfekten” Technologie. Weil man das von Computern ja so gewöhnt ist. Keine falsche Antwort, alles vorberechenbar. Du freust Dich immer wie ein kleines Kind, wenn jemand nachweist, dass KI “dumm” ist.
KI ist halt eher wie ein Mensch. Fehlerbehaftet, aber trotzdem großartig. Konzentrieren wir uns doch lieber darauf was wir mit der Technologie anstellen können.
Ich habe es z.B. geschafft in knapp 2 Monaten unsere Provider Infrastruktur vollständig neu aufzubauen (Das Grundgerüst) - früher hätte ich dafür vermutlich mindestens ein halbes Jahr gebraucht.
Werner, das weiĂź ich doch - worĂĽber ich mich wundere sind die vielen anderen Menschen welche einem KI-GestĂĽtzem ChatBot mehr vertrauen als ihrem gesunden Menschenverstand.
Und, leider muss ich Dich auf den Boden der Tatsachen zurĂĽck holen:
Eine AI / LLM ist nicht Dumm sondern hat nur einen bestimmten Bereich an Fähigkeiten.
Ein ChatBOT, vulgo KI/AI, hat die Fähigkeiten: Informationen verknüpft darzustellen. Die Fumnktion eines Künstlichen neuronalen Netzes hat aber nicht die Möglichkeit selbst zu wissen: wann des sammelns und verknüpfen genug ist. Dazu sind, von Menschen erstellte, Einschränkungen Parameter notwendig. (Diese Einschränkungen sind derzeit auch der Grund: warum die LLM der Chatbots oft Fehlerhafte Antworten liefern.)
Du liegst also mit Deiner Einschätzung ziemlich daneben. Als dezidiert LLM hat sie sicher eine gute Funktion - in einem ChatBot ist sie, meiner Erfahrung nach, einem erweiterten Google gleichzusetzen und ebenfalls brauchbar - als von den Medien postulierte “Intelligenz” ist sie unbrauchbar und gefährlich! (Durch die mediale Falschinformation glauben die Menschen es gäbe im ChatBot eine Intelligenz welche nun ihre Probleme zu lösen hat - ähnlich dem Master-Slave-Syndrom)
PS: unter persönlichen Problemen verstehe ichh Probleme sozialer und psychologischer Art. Das Dir ChatGPT helfen konnte war zu erwarten, denn auch Du hast fachliches Know-How.
Ich fĂĽrchte mich vor der Intelligenz der KI weniger, als der von mancher Menschen. (Ich glaube jemand hat mal gesagt: Ich fĂĽrchte mich vor kĂĽnstlicher Intelligenz weniger als vor natĂĽrlicher Dummheit).
Und ich bekomme von der KI Problemlösungen oder Problemlösungsansätze die klüger sind, als die von einigen Menschen.
Solange beim Benutzer von KI -Ergebnissen (so, wie auch bei Benutzung irgendwelcher anderer Ergebnisse von Computern ) “genug” Wissen und Intelligenz vorhanden ist, um vielleicht brauchbare Ergebnisse von vollkommen unbrauchbaren (weil vieleicht “halluzinierten” oder fehlerhaften) Ergebnissen zu unterscheiden, und irgendwelche Ergebnisse aus KI-Systemen nur als Vorschläge verstanden werden, die verwendet werden können, aber nicht verwendet werden müssen, solange sehe ich keine besonderen Probleme durch KI auf uns zukommen.
Wenn allerdings KI- Ergebnisse ungeprĂĽft weiterverwendet werden mĂĽssen, weil
gar keine kontrollierende/ausfĂĽhrende menschliche Instanz der KI mehr nachgelagert ist, da die dafĂĽr in Frage kommenden Mitarbeiter bereits abgebaut wurden,
die fĂĽr Ergebnis-PrĂĽfungen verbliebenen Mitarbeiter
aber nicht über genug eigenes Wissen und Erfahrung verfügen, um KI-Ergebnisse korrekt beurteilen zu können, oder
sie nicht ausreichend Arbeitszeit zur Verfügung haben, um die zur Prüfung von KI-Ergebnissen erforderlichen Recherchen und Abschätzunghen auch mit ausreichender Sorgfalt durchführen zu können ,
dann erwarte ich große Probleme und durch KI-Ergebnisse verursachte - vielleicht sogar sogar politisch/wirtschaftlich - gefährliche Konstellationen.
Es kursiert ja schon die Vermutung, dass die von Trump drastisch erhöhten - sonst kaum erklärbaren Zolltarife - durch ein KI-System ermittelt und - ungeprüft präsentiert worden sein könnten. Verstärkt werden solche Vermutungen noch durch das Gerücht, dass solche Zölle sogar für eine unbewohnte Insel ermittlet worden sein sollen , auf der. bzw, mit der gar keine Handelsbeziehungen bestehen.
Im Falle menschlicher Intelligenz ist allgemein bekannt und kann fast täglich persönlich beobachtet werden, dass mit starken Schwankungen gerechnet werden muss.
Von Maschinen und Computern nehmen Laien an, dass sie nie Fehler machen und ihren Ergebnissen immer vertraut werden kann - bzw. sogar immer öfter vertraut werden muss.
Genau diese falsche Anahme ist der Grund dafür, warum maschinelle “Intelligenz” viel gefährlicher ist, als - sogar fehlende - menschliche Intelligenz.
Nichts anderes als die fehlerhafte Ăśbersetzung, sowie das unerbittliche Beharren auf diesen Fehler: kreide ich den Medienleuten und der Gesellschaft an.
Doch auch Technikern, welche “ihr Baby, ihr Spilzeug" verteidigen wie eine Mutter ihr Junges, auch ihnen muss ich ins Gewissen reden. Durch ihre Glorifizierung der LLM und falsche Bezeichnung der AI als KI, tragen sie dazu bei: daßdie Medien ihre Falschinformationen verbreiten können.
Anstatt ihren Einfluss für ein allgemeines Verständnis im Umgang mit LLM’s einzusetzen und die Möglichkeiten und Grenzen von ChatBots aufzuzeigen wird - ohne den verantwortungsvollen Umgang zu lehren - stur nur von ev. Möglichkeiten schwadroniert und die Grenzen verschämt verschwiegen.
(Seit ca. 8 Wochen frage ich, so alle 2-3 Tage ChatGPT und 2 andere ChatBots: welche Bezirke an den 8. Bezirk grenzen. Bis jetzt kamen sehr fantasievolle, jedoch unrichtige, Antworten. Solange bei solchen einfachen Anforderungen: Fehlerhafte Antworten auftauchen, weiß ich: daß die Zuständigen die richtige Balance zwischen: Stromverbrauch - CPU-Belastung - itterationseinschränkung, noch nicht gefunden haben. [Nichts gegen den Test am lebenden System: aber man hätte die Leute nicht für Blöd verkaufen müssen])
Auch eine KI kann lernen. Trotzdem bleibe ich bei meinem Standpunkt: eine KI kein VerantwortungsgefĂĽhl nach zu sagen und dementsprechend auch nicht zu vertrauen
Kann einem Gehirn VerwantwortungsgefĂĽhl begebracht werden?
Dann kann man auch einem neuronalen Netz ein solches beibringen.
Hast Du das Gefühl, dass die überwiegende Anzahl von höchstrangigen US Politikern (um nicht unsere zu bemühen) ein Verantwortungsgefühl haben?
Warum denkst Du daher dass die KI hier nicht besser sein kann, als z.B. diese Politiker?
Man kann einer KI antrainieren im Sinne der Gesellschaft zu entscheiden. Das ist bei Menschen ab einem gewissen Alter eher schwierig bis unmöglich. (sie wurden falsch trainiert - ich glaube bei uns Menschen heißt das erzogen).
KI hat kein Bewusstsein und kein echtes „Gefühl“. Aber man kann sie mit Zielen, Werten und Feedbacksystemen trainieren.
Man kann ein Belohnungssystem so gestalten, dass Handlungen, die gesellschaftlichen Nutzen bringen, positiv bewertet werden – und solche, die Schaden anrichten, negativ.
Das ist im Prinzip ähnlich wie bei Menschen: auch wir lernen durch Belohnung und Bestrafung.
Der groĂźe Vorteil:
KI vergisst nicht, sie ist konsistent.
Sie kann in Sekunden Millionen Szenarien simulieren und die Folgen abwägen.
Sie kann sich an klare, objektive Kriterien halten – etwas, das bei Menschen durch Macht, Emotionen, Ego oder eben Korruption oft verzerrt wird.
Das hat aber alles nicht mehr mit dem ursprĂĽnglichen Problem der Abwanderung aus Ă–sterreich zu tun.
In der hier (unter KI Intelligenz/Mensch/Maschine ) gefĂĽhrten Diskussion kann auch ich das Augangsthema dieser Diskussion nicht mehr erkennen.
Möglicherweise ist diese Diskussion hier Teil einer größeren Diskussion, die ursprüngligch - bevor sie vielleicht hierher verschoben wurde- unter dem Thema “Abwanderung aus Österreich … “( Titel hier nur sinngemäß angeführt, nicht der genaue Wortlaut ) geführt wurde.
Ich habe auch immer wieder Probleme, während des Schreibens einer Antwort nochmals den Text des ursprünglichen Beitrages (auf den ich antworten will) anzusehen.
“Irgendwie” schaffe ich das dann zwar, habe aber den Eindruck , dass auf dem Weg, um “irgendwie” den ursprünglichen Beitrag nochmals anzeigen lassen zu können einigen Bugs(?) oder “Stolpersteinen” ausgewichen werden muss.
Gibt’s da irgendwo Tips, wie ein Beitrag nochmals angezeigt werden kann - oder erst gar nicht aus dem Blickfeld am Bildschirm “verschwindet” - an dessen Beantwortung gerade gearbeitet wird ?