TL;DR: AI potrafi programować, ale to nie magiczne rozwiązanie. Najlepsze efekty daje jako „asystent”, którego kod trzeba dokładnie sprawdzać i stopniowo wdrażać. Stara szkoła code review nadal rządzi.

AI jako developer – czy to działa?

Sztuczna inteligencja wkroczyła do świata programowania na dobre. Modele LLM które potrafią „kodować”, takie jak Claude-3.5-Sonnet, GPT-4o, DeepSeek Coder, o1-Mini, o3-Mini czy DolphinCoder, potrafią generować kod, optymalizować rozwiązania i sugerować poprawki. Ale czy naprawdę można im ufać? Po kilkumiesięcznej pracy z różnymi modelami jako asystent mam klika swoich przemyśleń.

AI jako wsparcie, ale nie zastępstwo

Z moich testów wynika, że AI rzeczywiście usprawnia pracę. Generuje kod szybciej, podpowiada rozwiązania i automatyzuje rutynowe zadania. Jednak jest w tym pewien haczyk – nie można jej wierzyć na ślepo. AI potrafi zrobić cię w balona, podsunąć błędne rozwiązanie lub zasugerować kod, który działa… ale tylko na pierwszy rzut oka. Inny przykład nie masz silnego typowania w JavaScript/PHP i AI stwierdzi, że lepasza jest inna nazwa zmiennej i nagle appka przestaje działać.

Z tego powodu kluczowe jest podchodzenie do AI jak do junior developera – jego pomysły mogą być wartościowe, ale wymagają sprawdzenia. Dobrą praktyką jest aplikowanie zmian małymi fragmentami i regularne code review. W przeciwnym razie łatwo doprowadzić do sytuacji, w której nagle nie rozumiemy własnego kodu.

Który model najlepszy? To zależy

Nie da się jednoznacznie wskazać najlepszego modelu. Claude-3.5-Sonnet wyróżnia się jakością kodu i ogólną niezawodnością, ale GTP-4o, o1-Mini czy o3-Mini również dają radę – i to przy niższych kosztach, starsze modele działają ale ich rezultat nie dorównuje tym nowym. Do prostych zastosowań lokalne modele też się sprawdzają, szczególnie gdy nie ma dostępu do Internetu, np. w pociągu na trasie Bielsko-Warszawa (gdzie net niby jest, ale w praktyce… wiadomo).

Ostatnio pojawił się Claude-3.7 więc fajnie będzie go w praktyce porónać w o3-mini.

Największe zagrożenie? Czarna skrzynka

Moim zdaniem największym zagrożeniem jest to, co pokazują badania (arXiv:2501.10091) – traktowanie AI jako magicznej czarnej skrzynki, która „coś robi” i generuje kod, bez zrozumienia jak to działa i co właściwie produkuje.

Dlatego, nawet używając AI, staram się samodzielnie zgłębić temat. Stworzyłem własnego tool’a do generowania grafik przy pomocy SDN, gdzie nauczyłem się, jak odpalać lokalnie modele, trzymać je w cache, budować prompty, itd. Do tego zrobiłem kursy AiDevs 2, AiDevs 3, CampusAI, Zautomatyzowani – a to tylko część mojej drogi w ostatnich latach. Nie chodzi o to, by AI robiła za nas wszystko, ale by wiedzieć, jak ją skutecznie wykorzystać. Nawet zdarzyło się mi mówić na JDD na ten temat AI oczami programisty w 2018 :c] przygotowanie materiałów na prezentacje to był solidny zastrzyk wiedzy.

Czy AI zastąpi programistów?

Nie wiem. Za szybko się dzieje w tej tematyce. W ciągu jednego dnia na arXiv pojawia się mnóstwo dokumentów o AI. Moim zdaniem będzie podobnie jak w bańce dot-comów w 2000 roku – najpierw był hype, każda firma miała w nazwie „.dot”, potem wszystko pierdykło… a z popiołów powstały Google i Amazon.

Teraz z AI robi się podobnie – nawet ręczny odkurzacz jest z „AI”. Każdy chce mieć coś związanego ze sztuczną inteligencją, bo to modne, ale ostatecznie przetrwają tylko naprawdę wartościowe technologie. Co z tego się urodzi nie wiem.

Trudno nadążyć za wiedzą. Praktycznie codziennie pojawiają się nowe kursy i materiały o AI. Jest ich tyle, że czasami ciężko znaleźć coś naprawdę wartościowego. Wybór jest ogromny, ale nie wszystko jest warte uwagi. Dlatego warto uczyć się na własnych projektach i testować AI w praktyce.

AI – pomoc czy zagrożenie?

AI może przyspieszyć pracę, ale jednocześnie nas ogłupić. Jeśli pozwolimy jej robić za dużo, szybko przestaniemy rozumieć własne projekty. Kluczem jest balans – AI jako wsparcie, a nie zastępstwo za myślenie.