Při snaze ušetřit si psaní dlouhého příkazu (resp. hledání v historii) jsem narazil na zajímavou vlastnost Fish shellu, a to na zkratky (Abbreviations).
Zkratku jde vytvořit např. takto:
abbr--addwebui'WEBUI_AUTH=False open-webui serve'
Poznámka
Aby byla zkratka perzistentní, je potřeba ji přidat do config.fish. Dokumentace doporučuje zkratku nejprve vypsat:
A tento příkaz (tj. abbr -a -- webui 'WEBUI_AUTH=False open-webui serve') pak uložit do konfiguračního souboru.
Výhodou oproti tradičním aliasům je, že po zadání zkratky webui se zkratka dá expandovat (typicky pomocí mezeníku nebo Enteru). Je tak zřejmé, jaký příkaz se bude spouštět a případně ho lze upravit.
„Ještě před čtyřmi lety se úspěšnost rozpoznání deepfakes lidmi pohybovala kolem 70–80 %, nicméně s vývojem nových generací syntetizátorů se kvalita podvrhů natolik zlepšila, že se již na svou schopnost deepfake rozpoznat nemůžeme spolehnout. Naše výzkumy navíc ukazují, že pokud lidé předem nevědí, že mají hodnotit deepfake – což je scénář, který při útoku nastává, protože útočník vás na rozdíl od vědce typicky nevaruje o povaze útoku –, jejich schopnost rozpoznání klesá prakticky k nule,“ říká docent Kamil Malinka z brněnského VUT.
-- Když vám zavolá klon: Anatomie miliardového byznysu s AI podvody
Už dříve jsem psal o asistentovi v Open WebUI, který mi pomáhá generovat tagy pro články na tomto blogu. Vzhledem k tomu, že mám články jako lokální soubory, bylo by jednodužší použít např. Claude Code, který má text článku rovnou k dispozici, bez nutnosti cokoliv manuálně kopírovat do GUI nebo extrahovat seznam tagů z webu. Zároveň mě zaujala nová vlastnost zvaná Agent Skills, která umožňuje agentovi přidávat specializované schopnosti. Níže sdílím své poznámky ke generování tagů právě s pomocí Claude Code.
Nový skill je jednoduše adresář (v mém případě generate-tags/), který obsahuje SKILL.md, příp. další pomocné soubory. Stačí mi, aby byl skill přístupný jen pro daný repozitář:
Soubor SKILL.md obsahuje minimální potřebné instrukce. Jako první jsou definována metadata (tzv. frontmatter ve formáty YAML), která se načítají automaticky. Z nich agent pozná, zda má daný skill použít:
SKILL.md
---name:generate-tagsdescription:Generate the list of tags for a blog post.---
Občas si hraju s digitální kresbou a kvůli proporcím si pomáhám 3D modely v populárním open source editoru Blender. Nejtěžší jsou pro mě proporce lidské postavy, a tak jsem vyzkoušel různá rozšíření jako MakeHuman nebo Human Generator. Na rychlé pokusy postačí, ale dříve nebo později se projeví jejich limity v detailech a přizpůsobitelnosti modelů.
Nedávno jsem zjistil, že existuje - k mému údivu bezplatně - pokročilý framework MetaHuman pro Unreal Engine. Výsledné modely vypadají velmi dobře, Unreal Engine má instalátor i pro Linux, takže mi to nedalo a pustil jsem se do instalace. Dosti trnité. Aneb jak by řekl klasik - byla to zkoušenost.
Unreal Engine 5 je sice za určitých podmínek zdarma, ale pro stažení je nutné přihlášení přes účet u Epic Games. OK, "zdarma" tedy bude pravděpodobně znamenat cílenou reklamu, neboli výrobce si to zkusí vybrat jinde. To jsem v rámci testování ochoten podstoupit. Horší už je to v případě Linuxu s doporučenými požadavky na operační systém - Ubuntu 22.04. To má sice stále oficiální podporu, ale dnes už se jedná přecejen o starší vydání. Na mém stroji momentálně běží Ubuntu 25.10, takže nezbývalo, než to prostě vyzkoušet a připravit se na potenciální problémy.
My critique of the industry is more in overshooting the tooling w.r.t. present capability. I live in what I view as an intermediate world where I want to collaborate with LLMs and where our pros/cons are matched up. The industry lives in a future where fully autonomous entities collaborate in parallel to write all the code and humans are useless. For example, I don't want an Agent that goes off for 20 minutes and comes back with 1,000 lines of code. I certainly don't feel ready to supervise a team of 10 of them. I'd like to go in chunks that I can keep in my head, where an LLM explains the code that it is writing. I'd like it to prove to me that what it did is correct, I want it to pull the API docs and show me that it used things correctly. I want it to make fewer assumptions and ask/collaborate with me when not sure about something. I want to learn along the way and become better as a programmer, not just get served mountains of code that I'm told works. I just think the tools should be more realistic w.r.t. their capability and how they fit into the industry today, and I fear that if this isn't done well we might end up with mountains of slop accumulating across software, and an increase in vulnerabilities, security breaches and etc.
-- Andrej Karpathy
We, experts in artificial intelligence (AI) and its societal impacts, are deeply concerned about
your unscientific and inaccurate statement that AI is nearing human reasoning. You claimed
in your budget speech in May "we thought AI would only approach human reasoning around
2050. Now we expect this to happen already next year."
We understand from Commission disclosure, which followed a lengthy process to obtain this
information, that you relied on the statements of Dario Amodei, Jensen Huang and Sam
Altman as the basis for your statement about AI nearing human reasoning. These are
marketing statements driven by profit-motive and ideology rather than empirical evidence
and formal proof. In short, these tech CEOs claims concerning “superintelligence” and “AGI”
are manifestly bound with their financial imperatives and not rigorous science.
For the President of the European Commission to repeat the misleading marketing language
of US technology firms without independent scientific verification undermines Europe’s
credibility as a reliable and trusted source of scientific knowledge. This is particularly so
amidst a significant speculative bubble to which baseless AI hype is contributing.
-- Open letter: retract your unscientific AI hype (via)
We are now confident we know how to build AGI as we have traditionally understood it. We believe that, in 2025, we may see the first AI agents “join the workforce” and materially change the output of companies. We continue to believe that iteratively putting great tools in the hands of people leads to great, broadly-distributed outcomes.
We are beginning to turn our aim beyond that, to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future. With superintelligence, we can do anything else. Superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity.
-- Sam Altman: Reflections (2025) (via)
Za posledních 20 let přichází jedna krize za druhou: migrace, finanční krize, válka (na Ukrajině), covid.
Žijeme převážně v digitálním světě, který má svá specifika a složitosti světa výrazně amplifikuje.
Posledních 20 let jsme v geopolitické válce s Ruskem, které se snaží štěpit západní společnosti a tím posílit svoji pozici a vliv.
Všechny 3 body se mi zdají dost propojené a navzájem se negativně posilují. Vezměme si, jak se za poslední cca 20 let změnil přístup ke zprávám a zpravodajství. Dříve bývalo zvykem si dopoledne přečíst noviny, večer v osm se podívat zprávy, sem tam na nějaký související pořad, a to bylo vše. Dnesní zpravodajství (někdo ho dokonce nazývá "infotainment", neboli zabavení se zprávami) se vyznačuje neustálým proudem nových a nových informací, detailů, pitvání událostí "minutu po minutě", dostupných 24 hodin denně, 7 dní v týdnu, ihned po ruce. Dokonce nám můžou chodit notifikace, že se něco důležitého stalo a musíme to rychle zkontrolovat. A tím, jak je řada zpráv podbarvena strachem, strašením a pocitem ohrožení, máme přirozeně tendenci jim věnovat více a více pozornosti.
Prof. Horáček říká, že lidská psychika zatím není adaptovaná na život v digitálním světě, a proto je buď potřeba se přizpůsobit, nebo digitální svět regulovat.
Seberegulace je první skupina, to co můžeme udělat my, každý z nás, hned, ode dneška, od těďka. Třeba vypínat [telefon], koukat se chvilku do zeleně místo do obrazovky. To myslím zcela vážně. Je jasně prokázáno, že v okruhu asi 3 kilometrů množství zeleně se kterou se setkáváme má pozitivní a profylaktický efekt na deprese a úzkosti. Takto se prostě musíme naučit žít a tím vykompenzovat ten složitý svět.
Nedávno jsme s pomocí kolegů z e-INFRA CZ rozjeli univerzitní instanci LiteLLM ve funkci AI API Gateway. Dají se tak poskytovat různé modely generativní AI přes API. Návod v dokumentaci LiteLLM je vcelku přímočary, nicméně jsem narazil na pár detailů.
Aby bylo možné používat Claude Code bez předplatného, je potřeba nastavit následující proměnné prostředí:
Vytvořil jsem si virtuální API klíč, který může volat všechny modely od Anthropic jako anthropic/*, což je jednodužší, než každý model přidávat manuálně. Jednotlivé modely je pak nutné volat např. jako anthropic/claude-sonnet-4-5-20250929. Nestačí jen claude-sonnet-4-5-20250929, což je defaultní chování Claude Code a vrátí se tím pádem error, že model nebyl na gateway nalezen. Vyřešit se to dá buď explicitním nastavením modelu přes přepínač:
Nově používám Fish shell, a nastavení těchto proměnných persistentním způsobem (obdobou záznamu v .bashrc) mi dalo trochu zabrat. Fish je velmi ergonomický, nicméně některé věci jsou oproti Bashi celkem nezvyk. Pomohl mi opět Claude:
Množství příspěvků na mém blogu utěšeně roste a začíná dávat smysl je seskupovat pomocí tagů. Zároveň si říkám, že vymýšlení tagů je přesně úkol pro nějaký jazykový model: předhodit mu text článku a nechat si tagy vygenerovat, alespoň jako návrh. Z pohledu konzistentnosti by bylo zároveň dobré modelu poskytnout i seznam již existujících tagů, aby se jich držel a negeneroval nové varianty téhož (např. ai-tutor, ai-tutors, ai-tutoring apod.).
Toto se dá jistě vyřešit pomocí jednoduchého skriptu do příkazové řádky, nicméně mě napadlo vytvořit si takového asistenta v Open WebUI, které slouží jako webové rozhraní pro náš univerzitní AI Sandbox. Asistenti (podobní GPTs v ChatGPT; v Open WebUI nesou označení Models) mohou volat nástroje (Tools) implementované jako třídy v programovacím jazyce Python. Níže je příklad nástroje pro získání aktuálního data a času:
importdatetimeclassTools:def__init__(self):passdefget_current_time(self)->str:"""Get the current time in a more human-readable format."""now=datetime.now()current_time=now.strftime("%I:%M:%S %p")# Using 12-hour format with AM/PMcurrent_date=now.strftime("%A, %B %d, %Y")# Full weekday, month name, day, and yearreturnf"Current Date and Time = {current_date}, {current_time}"
Well, the types of computers we have today are tools. They’re responders: you ask a computer to do something and it will do it. The next stage is going to be computers as “agents.” In other words, it will be as if there’s a little person inside that box who starts to anticipate what you want. Rather than help you, it will start to guide you through large amounts of information. It will almost be like you have a little friend inside that box. I think the computer as an agent will start to mature in the late '80s, early '90s.
-- Steve Jobs, 1984 interview (via)
Learn basic NumPy operations with an AI tutor! Use an AI chatbot (e.g., ChatGPT, Claude, Gemini, or Stanford AI Playground) to teach yourself how to do basic vector and matrix operations in NumPy (import numpy as np). AI tutors have become exceptionally good at creating interactive tutorials, and this year in CS221, we're testing how they can help you learn fundamentals more interactively than traditional static exercises.
From the beginning, AI researchers were not shy about making predictions of their comming successes. The following statement by Herbert Simon in 1957 is often quoted:
It is not my aim to surprise or shock you - but the simplest way I can summarize is to say that there are now in the world machines that think, that learn and that create. Moreover, their ability to do these things is going to increase rapidly until - in a visible future - the range of problems they can handle will be coextensive with the range to which the human mind ha been applied.
The term "visible future" is vague, but Simon also made more concrete predictions: that within 10 years a computer would be chess champion and a significant mathematical theorem would be proved by machine. These predictions came true (or approximately true) within 40 years rather than 10. Simon's overconfidence was due to the promising performance of early AI systems on simple examples. In almost all cases, however, these early systems failed on more difficult problems.
-- Artificial Intelligence: A Modern Approach (4th Edition) (1.3.3 A dose of reality (1966-1973))
Brains and digital computers have somewhat different properties. [...] computers have a cycle time that is a million times faster than a brain. The brain makes up for that with far more storage and interconnection than even a high-end personal computer, although the largest supercomputers match the brain on some metrics. Futurists make much of these numbers, [...] But the comparisons of raw numbers are not especially informative. Even with a computer of virtually unlimited capacity, we still require further conceptual breakthroughs in our understanding of intelligence. [...] Crudely put, without the right theory, faster machines just give you the wrong answer faster.
-- Artificial Intelligence: A Modern Approach (4th Edition) (1.2.4 Neuroscience)
Doug Endelbart, one of the pioneers of [human-computer interaction] championed the idea of intelligence augmentation - IA rather then AI. He believed that computers should augment human abilities rather than automate away human tasks. In 1968, Engelbart's "mother of all demos" showed off for the first time the computer mouse, a windowing system, hypertext, and video conferencing - all in an effort fot demonstrate what human knowledge workers could collectively accomplish with some intelligence augmentation.
-- Artificial Intelligence: A Modern Approach (4th Edition) (1.2.5 Neuroscience)