Model Context Protocol, w skrócie MCP – nie mylić z MCU albo RCP – to otwarty standard od Anthropic, który coraz wyraźniej pcha się do środowisk programistycznych i narzędzi developerskich. Jeśli miałbym to porównać do czegoś prostego: MCP to takie USB dla AI – jeden interfejs, masa zastosowań, bez kombinowania z przejściówkami. Dla tych, co […]
Category: Sztuczne sieci neuronowe (Page 1 of 2)
TL;DR: AI potrafi programować, ale to nie magiczne rozwiązanie. Najlepsze efekty daje jako „asystent”, którego kod trzeba dokładnie sprawdzać i stopniowo wdrażać. Stara szkoła code review nadal rządzi. AI jako developer – czy to działa? Sztuczna inteligencja wkroczyła do świata programowania na dobre. Modele LLM które potrafią „kodować”, takie jak Claude-3.5-Sonnet, GPT-4o, DeepSeek Coder, o1-Mini, […]
Moim zdaniem sztuczna inteligencja w 2025 roku rozwija się w błyskawicznym tempie. Za chwilę zobaczymy kolejne przełomowe technologie i modele, które zmieniają sposób, w jaki pracujemy, uczymy się i komunikujemy. Poniżej przedstawiam to, co rzuciło mi się w oczy w kontekście AI w 2025 roku. 1. Nowe modele językowe i AI multimodalne Rok 2025 to […]
Tworzenie Landing Buddy w wersji MVP – czyli jak 158 godzin pracy pozwoliło stworzyć pierwszy mini SaaS w wyzwaniu „12 SaaS in 12 months” Jeśli znasz projekt „12 startups in 12 months”, to wiesz, że to jest poziom „hardcore” dla ludzi, którzy łączą deadline’y z lekkim masochizmem. Postanowiłem podjąć wyzwanie i oto przed Wami: Landing […]
Podczas pracy nad generatorem landing page zintegrowanym z AI zauważyłem coś, co można porównać do znalezienia igły w stogu siana – albo raczej do igły, która przemyka bokiem, bo stóg nie został wystarczająco przeszukany. Testując swoją aplikację, trafiłem na problem z moderowaniem treści przy użyciu Moderation API od OpenAI. Na przykład, wygenerowałem stronę w języku […]
Współczesne narzędzia oparte na modelach językowych (LLM – Large Language Models) wykorzystują różne mechanizmy dostarczania danych wejściowych, aby generować odpowiedzi które są precyzyjne, spójne i kontekstowe. Każdy z tych mechanizmów, często określanych jako „typy pamięci”, pełni kluczową rolę w organizacji i przetwarzaniu danych dostarczanych modelom. W artykule omówię, czym charakteryzują się krótkotrwała pamięć (STM), długotrwała […]
Dobra, w tym arcie potestuję kilka detektorów tekstu generowane poprzez AI Metodologia praktycznego testu jest prosta: bierzemy tekst o podobnej tematyce, napisany przez człowieka, jak również generowany przez AI i podany lekkiej edycji, a następnie przepuszczamy przez różne detektory tekstu. A więc do dzieła Generowany przez człowieka: Programista czyli człowiek który przetwarza wymagania biznesowe na […]
W dzisiejszym artykule postaram się przybliżyć temat pamięci i wielkości okna danych w dużych modelach językowych, czyli takich jak GPT-3 i GPT-4 od OpenAI, BERT od Google, Llama 3 od Mety. Ach, przed chwilą zapomniałem, co chciałem powiedzieć, co doskonale wpisuje się w dzisiejszy temat. Przypomnę, dlaczego modele czasami gubią kontekst i „zapominają” o tym, […]
W nowym arcie poruszę temat budowania promptów dla wielkich modeli językowych takich jak GPT, LLaMa3, Mistral 7B i tym podobnych. Opowiem także, skąd wynikają halucynacje w tych modelach oraz jak ich unikać, stosując techniki zero-shot prompts, one-shot prompts i multi-shot prompts. Jak mogłeś zauważyć, napisałem już kilka artykułów na temat budowania promptów, które są stosowane […]
Hej, coś z cyklu Ai dla opornych. Nowy art, w którym poruszę temat budowania promptów dla wielkich modeli językowych takich jak GPT, LLaMa3, Mistral 7B i tym podobnych. Opowiem także, skąd wynikają halucynacje w tych modelach oraz jak ich unikać, stosując techniki zero-shot prompts, one-shot prompts i multi-shot prompts. Jak mogłeś zauważyć, napisałem już kilka […]