Kennt jemand von Euch LCM?

Auch LLMs denken in abstrakten Begriffen. Neuronale Netze transformieren die Eingaben in einen im Prinzip unendlich-dimensionalen Abstraktionsraum, denken dort darßber nach und transformieren die Gedanken dann zurßck in die gewßnschte Ausgabeform. Jede semantische Vor-Analyse lässt sich durch weitere Transformationsschichten in einem normalen LLM erreichen.
Als Forschungsthema ist das interessant und kann weitere Erkenntnisse bringen, aber Revolutionäres ist davon nicht zu erwarten.

1 „Gefällt mir“