Jarosław Czub

Programista i entuzjasta AI i | Architekt Oprogramowania i Systemów IT

Category: Sztuczne sieci neuronowe (Page 1 of 2)

Model Context Protocol – czy to coś ala USB dla AI?

Model Context Protocol, w skrócie MCP – nie mylić z MCU albo RCP – to otwarty standard od Anthropic, który coraz wyraźniej pcha się do środowisk programistycznych i narzędzi developerskich. Jeśli miałbym to porównać do czegoś prostego: MCP to takie USB dla AI – jeden interfejs, masa zastosowań, bez kombinowania z przejściówkami. Dla tych, co […]

Czy AI naprawdę potrafi programować?

TL;DR: AI potrafi programować, ale to nie magiczne rozwiązanie. Najlepsze efekty daje jako „asystent”, którego kod trzeba dokładnie sprawdzać i stopniowo wdrażać. Stara szkoła code review nadal rządzi. AI jako developer – czy to działa? Sztuczna inteligencja wkroczyła do świata programowania na dobre. Modele LLM które potrafią „kodować”, takie jak Claude-3.5-Sonnet, GPT-4o, DeepSeek Coder, o1-Mini, […]

Tak trochę inaczej – AI w 2025 co warto wiedzieć?

Moim zdaniem sztuczna inteligencja w 2025 roku rozwija się w błyskawicznym tempie. Za chwilę zobaczymy kolejne przełomowe technologie i modele, które zmieniają sposób, w jaki pracujemy, uczymy się i komunikujemy. Poniżej przedstawiam to, co rzuciło mi się w oczy w kontekście AI w 2025 roku. 1. Nowe modele językowe i AI multimodalne Rok 2025 to […]

Tworzenie generatora stron w wersji MVP – pierwszy mini SaaS w wyzwaniu „12 SaaS in 12 months”

Tworzenie Landing Buddy w wersji MVP – czyli jak 158 godzin pracy pozwoliło stworzyć pierwszy mini SaaS w wyzwaniu „12 SaaS in 12 months” Jeśli znasz projekt „12 startups in 12 months”, to wiesz, że to jest poziom „hardcore” dla ludzi, którzy łączą deadline’y z lekkim masochizmem. Postanowiłem podjąć wyzwanie i oto przed Wami: Landing […]

Czy Moderation API od OpenAI zawsze spełnia swoje zadanie?

Podczas pracy nad generatorem landing page zintegrowanym z AI zauważyłem coś, co można porównać do znalezienia igły w stogu siana – albo raczej do igły, która przemyka bokiem, bo stóg nie został wystarczająco przeszukany. Testując swoją aplikację, trafiłem na problem z moderowaniem treści przy użyciu Moderation API od OpenAI. Na przykład, wygenerowałem stronę w języku […]

Typy pamięci w agentach używających modeli LLM

Współczesne narzędzia oparte na modelach językowych (LLM – Large Language Models) wykorzystują różne mechanizmy dostarczania danych wejściowych, aby generować odpowiedzi które są precyzyjne, spójne i kontekstowe. Każdy z tych mechanizmów, często określanych jako „typy pamięci”, pełni kluczową rolę w organizacji i przetwarzaniu danych dostarczanych modelom. W artykule omówię, czym charakteryzują się krótkotrwała pamięć (STM), długotrwała […]

Czy detektory generowanego tekstu AI działają? test na języku polskim

Dobra, w tym arcie potestuję kilka detektorów tekstu generowane poprzez AI Metodologia praktycznego testu jest prosta: bierzemy tekst o podobnej tematyce, napisany przez człowieka, jak również generowany przez AI i podany lekkiej edycji, a następnie przepuszczamy przez różne detektory tekstu. A więc do dzieła Generowany przez człowieka: Programista czyli człowiek który przetwarza wymagania biznesowe na […]

Dlaczego modele LLM zapominają co było na początku

W dzisiejszym artykule postaram się przybliżyć temat pamięci i wielkości okna danych w dużych modelach językowych, czyli takich jak GPT-3 i GPT-4 od OpenAI, BERT od Google, Llama 3 od Mety. Ach, przed chwilą zapomniałem, co chciałem powiedzieć, co doskonale wpisuje się w dzisiejszy temat. Przypomnę, dlaczego modele czasami gubią kontekst i „zapominają” o tym, […]

Budowanie promptów do wielkich modeli językowych – 0-shot, 1-shot, lub multi-shot

W nowym arcie poruszę temat budowania promptów dla wielkich modeli językowych takich jak GPT, LLaMa3, Mistral 7B i tym podobnych. Opowiem także, skąd wynikają halucynacje w tych modelach oraz jak ich unikać, stosując techniki zero-shot prompts, one-shot prompts i multi-shot prompts. Jak mogłeś zauważyć, napisałem już kilka artykułów na temat budowania promptów, które są stosowane […]

AI dla opornych :c)

Hej, coś z cyklu Ai dla opornych. Nowy art, w którym poruszę temat budowania promptów dla wielkich modeli językowych takich jak GPT, LLaMa3, Mistral 7B i tym podobnych. Opowiem także, skąd wynikają halucynacje w tych modelach oraz jak ich unikać, stosując techniki zero-shot prompts, one-shot prompts i multi-shot prompts. Jak mogłeś zauważyć, napisałem już kilka […]

Page 1 of 2

© 2025 Jarosław Czub — Powered by WordPress