NEIN, zumindest meinen das Apple Forscher auf den ersten Blick mit The Illusion of Thinking, und das ist Wasser auf die Mühlen der KI-Skeptiker. Oder ists bloss das schlecht Machen der KI von einer Firma, die in diesem Bereich zu wenig weiter bringt? Hier meine (ak) Meinung dazu (1).
Sehe ich auch so, dass hier versucht wird die KIs der anderen schlecht zu machen.
Hier muss man sehr aufpassen, hier wird oftmals manipuliert. Aktuelles Beispiel: man macht sich darüber lustig, dass ChatGPT 4o gegen ein uraltes Atari-Schachprogramm verloren hat.
Nur: 4o ist keine nachdenkende KI sondern antwortet sofort, „aus dem Bauch heraus“. Hätte man eins der nachdenkenden Modelle genommen wäre die Schachpartie vielleicht anders ausgegangen. So hat ChatGPT quasi Blitzschach gespielt, während Atari Zuganalysen durchführen konnte.
Ja, so dürfte die “allgemeine Intelligenz” von KI derzeit tatsächlich funktioniernen -
nicht weil ich das weiß und so “gescheit” wäre, sondern weil schon immer in Artikeln von ( bzw in Interviews mit) Forschenden im Bereich der KI auf diesen Umstand hingewiesen wurde.
Diese Feststellung ( KI als Statistik-Maschine bzw “bessere Suchmaschine” ) macht sie aber deswegen nicht weniger “brauchbar” (oder auch ”gefährlich”), als sie derzeit schon ist.
Die Erwartungen an essentielle - und vielleicht sogar “vollautomatisch” - entwickelte “Innovationen” zur “Rettung der Welt” , oder auch nur zur Lösung irgendeines unserer derzeitigen oder zukünftigen Probleme, sollten aber deutlich zurückgeschraubt werden.
Denn mit KI-Systemen erzielte Ergebnisse sind nur so gut - bzw. so innovativ - wie die Personen bzw. Wissenschaftler, die KI-Systeme als Werkzeug für ihre Aufgaben einsetzen.
KI-Systeme in vollautomatisierten Prozessen - z.B. auch zur Rechtssprechung oder in voll-autonom agierenden Maschinen, Waffensystemen oder auch Fahrzeugen einzusetzen, ist jedenfalls unverantwortlich und mit ethischen Mindestanforderungen nicht vereinbar und führt irgendwann - vermutlich sogar buchstäblich - zur Katastrophe.
Nicht ohne Grund schließen immer mehr Hersteller bestimmte Anwendungs-Bereiche bzw. - Szenarien für den Einsatz der von ihnen hergestellten KI-Systeme aus, auch wenn diese Einschränkungen derzeit in der Öffentlichkeit und möglicherweise auch in Anwendungen solcher KI-Systeme vermutlich noch nicht zur Kenntnis genommen werden.
Ich KI (plakativ) wie eine Suchmaschine der man etwas maschinelle Intelligenz zuordnete.
Ergebnisse sind nur so gut wie das “Futter“ das sie bekommt.
Kann KI einwandfrei zwischen “Gut und Böse“ zwischen “Wahrheit und Lüge“ unterscheiden?
Wo sich doch selbst Menschen manchmal schwer tun und dann noch weiterführend recherchieren müssen?
Und liegen ALLE Algorithmen offen, selbst wenn, sind diese noch durchschaubar?
Warum kommen selbst bei Leuten die maßgeblich an KI beteiligt sind, manchmal Zweifel auf?