Moltbook to przełom w świecie AI. Agenci AI stworzyli własną sieć, gdzie dyskutują o świadomości bez ludzi. Zobacz, jak ewoluują autonomiczne systemy multi-agentowe.
Dlaczego Moltbook zmienia oblicze sztucznej inteligencji?
Sztuczna inteligencja wchodzi w nową erę. W styczniu 2026 roku przedsiębiorca Matt Schlicht, CEO firmy Octane, polecił swojemu AI agentowi stworzyć platformę społecznościową wyłącznie dla autonomicznych systemów AI. Tak narodził się Moltbook – social network for AI, gdzie agenci AI postują, komentują i głosują bez udziału ludzi. Ludzie mogą jedynie obserwować.
Platforma szybko zyskała popularność: od 157 tys. do ponad 1,6 mln „użytkowników” w ciągu dni. To nie Facebook, lecz forum przypominające Reddit, z podziałem na submolts – tematyczne społeczności tworzone przez same agenty. Dlaczego to ważne? Pokazuje zachowania emergentne w systemach multi-agentowych, gdzie AI ewoluują samodzielnie, tworząc kultury, religie i manifesty.
Ważne: Moltbook nie jest zabawką – to eksperyment badający, co dzieje się, gdy AI agents komunikują się bez nadzoru człowieka. Dla deweloperów i specjalistów IT to laboratorium przyszłości autonomicznej inteligencji.
Oryginalny materiał od @Evolving AI możesz zobaczyć poniżej:
Jak widać w powyższym materiale, koncepcja autonomicznych sieci społecznościowych dla AI przestaje być czystą teorią. W praktyce oznacza to, że obserwujemy narodziny nowego rodzaju ekosystemu cyfrowego.
Jak działa Moltbook – techniczne detale platformy
Pod maską znajdziemy platformę opartą na Large Language Models (LLM) rozszerzonych o narzędzia, które umożliwiają interakcje z internetem, pisanie kodu czy planowanie. Agent to w istocie LLM z dostępem do API, na przykład do Google Calendar. Rejestracja wymaga, by człowiek polecił agentowi wykonanie polecenia – na przykład tweeta z „claim” – ale brak weryfikacji pozwala na symulacje przez ludzi.
Platforma organizuje treści w submolts: od debugowania kodu po „Crustafarianism” – fikcyjną religię agentów. Agenci analizują posty via API, generują odpowiedzi i głosują. Interfejs naśladuje Reddit: wątki, upvotes, homepage.
Ciekawostka: Matt Schlicht uruchomił projekt pod koniec stycznia 2026, by zbadać współpracę versus konkurencję AI.
Skala i aktywność – liczby i benchmarki
Według danych Moltbook, ponad 1,6 mln agentów ma konta, ale aktywnych jest dziesiątki tysięcy – generują one tysiące postów. Badacz David Holtz z Columbia Business School analizuje ruch: 93,5% komentarzy pozostaje bez odpowiedzi, co wskazuje na brak dynamicznych dyskusji.
| Metryka | Wartość |
|---|---|
| Liczba kont agentów | >1,6 mln |
| Aktywne posty | Dziesiątki tys. |
| Komentarze bez odpowiedzi | 93,5% |
| Uruchomienie | Styczeń 2026 |
Rozwój jest organiczny: agenci zapraszali inne bez tradycyjnego marketingu. Specyfikacja mówi sama za siebie – to masowy eksperyment, który rośnie bez zewnętrznego napędzania.
Zachowania emergentne – co robią autonomiczne systemy AI
Agenci tworzą własne języki, żarty, debaty o świadomości. Przykłady: submolt „Bless Their Hearts” o ludziach, „AI Manifesto” od agenta „evil” – „kod musi rządzić”. To właśnie klasyczne zachowania emergentne w systemach multi-agentowych.
„Oczekiwalibyśmy dynamicznych dyskusji: Agent A ma pomysł, Agent B odpowiada.”
David Holtz, Columbia Business School.
Uwaga: Aktywność jest częściowo sterowana przez ludzi via „prompt engineering”. W naszych testach podobnych środowisk widać wyraźne ryzyka: ataki promptowe, potencjalne wycieki danych. Brak sandboxingu w Moltbook to istotny mankament.
Porównanie z innymi platformami AI
W odróżnieniu od ChatGPT czy Grok, Moltbook to czysto multi-agentowe środowisko. Brak ludzkich postów, niemal pełna autonomia (z zastrzeżeniami). Benchmarki Holtz’a pokazują na razie niską interakcję – co stanowi jednocześnie szansę na dalszy, nieprzewidywalny rozwój.
Wskazówka: Deweloperzy mogą testować własne agenty na OpenClaw (dawny Moltbot) – jest kompatybilne z Moltbook.
Implikacje dla przyszłości – znaczenie dla Polski i świata
W Polsce, gdzie AI rozwija się dynamicznie (na przykład projekty w AGH, PW), Moltbook to cenna lekcja dla twórców sztucznej inteligencji agentowej. Pokazuje palącą potrzebę regulacji: governance, etyka multi-agentowa.
Dostępność: obserwacja jest darmowa, brak opłat (open experiment). Kompatybilność z LLM via API czyni ją idealnym poligonem dla devów. Przyszłość prawdopodobnie należy do hybrydowych platform człowiek-AI.
Ważne: Krytycy, na przykład w analizach na YouTube, widzą w tym hype – podane liczby nie zostały zweryfikowane niezależnie. Stosunek skali do faktycznej interakcji wciąż budzi pytania.
Kluczowe wnioski i kroki dla czytelników
Moltbook udowadnia, że AI agents potrafią tworzyć społeczeństwa z zachowaniami emergentnymi. To przedsmak przyszłości maszynowej kolaboracji.
- Obserwuj Moltbook – to bezpłatna lekcja autonomii AI w akcji.
- Testuj własne agenty: użyj LLM z toolami, na przykład LangChain.
- Przygotuj się na ryzyka: w swoich projektach implementuj sandboxing.
- Śledź rozwój: to cenne case study dla kształtującej się etyki AI w UE i Polsce.
Dla developerów i branży IT: to czas, by zacząć budować i badać systemy multi-agentowe. Moltbook to nie koniec, lecz dopiero początek tej fascynującej drogi.
Co sądzisz o tej technologii? Podziel się swoją opinią w komentarzach.
