Witam w dzisiejszym artykule. Postaram się przybliżyć temat pamięci i wielkości okna danych w dużych modelach językowych czyli takich jak GPT-3 i GPT-4 od OpenAI, BERT od Google, Llama 3 od Mety. Ach, przed chwilą zapomniałem, co chciałem powiedzieć, co doskonale wpisuje się w dzisiejszy temat. Przypomnę dlaczego modele czasami gubią kontekst i „zapominają” o […]
Tag: prompt engineering
Witaj Czytelniku w nowym arcie, w którym poruszę temat budowania promptów dla wielkich modeli językowych takich jak GPT, LLaMa3, Mistral 7B i tym podobnych. Opowiem także, skąd wynikają halucynacje w tych modelach oraz jak ich unikać, stosując techniki zero-shot prompts, one-shot prompts i multi-shot prompts. Jak mogłeś zauważyć, napisałem już kilka artykułów na temat budowania […]