<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Opencode on Kliku Kliku</title><link>https://klikukliku.dev/pl/tags/opencode/</link><description>Recent content in Opencode on Kliku Kliku</description><generator>Hugo</generator><language>pl</language><lastBuildDate>Tue, 17 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://klikukliku.dev/pl/tags/opencode/index.xml" rel="self" type="application/rss+xml"/><item><title>OpenCode wewnątrz Dockera: Jak bezpiecznie uruchamiać AI w lokalnym terminalu?</title><link>https://klikukliku.dev/pl/posts/opencode-in-docer-container/</link><pubDate>Tue, 17 Mar 2026 00:00:00 +0000</pubDate><guid>https://klikukliku.dev/pl/posts/opencode-in-docer-container/</guid><description>&lt;h2 id="wstęp"&gt;Wstęp&lt;/h2&gt;
&lt;p&gt;Ostatnio przyglądałem się tematowi bezpiecznego uruchamiania narzędzi AI bezpośrednio w naszym lokalnym środowisku. Narzędzia typu OpenCode są świetne, ale dają algorytmom dużą swobodę w operowaniu na naszych plikach. Zwykle kieruje się zasadą ograniczonego zaufania co skłoniło mnie do podjęcia próby zamknięcia opencode w kontenerze z dostępem do niezbędnych plików i katalogów.&lt;/p&gt;
&lt;h2 id="dlaczego-izolacja-ma-znaczenie"&gt;Dlaczego izolacja ma znaczenie?&lt;/h2&gt;
&lt;p&gt;Kiedy pozwalamy modelom AI generować i uruchamiać kod, de facto oddajemy im częściową kontrolę nad terminalem. Nawet jeśli ufamy dostawcy, błąd w wygenerowanym skrypcie może narobić bałaganu w systemie plików. Rozwiązanie? &lt;strong&gt;Konteneryzacja&lt;/strong&gt;.&lt;/p&gt;</description></item></channel></rss>