Takket være den stigende popularitet af generativ kunstig intelligens er programmer, der kan producere tekst, computerkode, billeder og musik, nu almindeligt tilgængelige. Men som AI-udviklere udnytter internettet til at træne nye modeller, risikerer de at indføre fejl, der kan akkumulere over tid og forringe modellernes ydeevne. Dette fænomen, kaldet “modelkollaps,” er blevet observeret i flere AI-modeller og kan true mangfoldigheden og pålideligheden af deres output. For at modvirke dette presserende problem kræver det måske en omhyggelig kuratering af træningsdata og en indsats for at beskytte modellernes eksisterende bias.
Sammenfatning af ChatGPT:
En løsning kan være at fabrikere syntetisk data, har jeg læst. Men ved ikke, hvor realistisk det er for LLMs.
Fabrikere syntetisk data? Det er vel også LLM fabrikeret, eller hvordan? Er ikke helt sikker på at jeg forstår (: