<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Deni Deni Digital</title>
	<atom:link href="https://deni-deni.digital/feed/" rel="self" type="application/rss+xml" />
	<link>https://en.deni-deni.digital/</link>
	<description>Digital. Analog. Human.</description>
	<lastBuildDate>Wed, 22 Apr 2026 15:40:59 +0000</lastBuildDate>
	<language>ru-RU</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://deni-deni.digital/wp-content/uploads/2024/09/cropped-DDD-5-32x32.png</url>
	<title>Deni Deni Digital</title>
	<link>https://en.deni-deni.digital/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Інжынер з DeepMind: ніякі ШІ не будзе свядомым, колькі яго ні маштабуй</title>
		<link>https://deni-deni.digital/%d1%96%d0%bd%d0%b6%d1%8b%d0%bd%d0%b5%d1%80-%d0%b7-deepmind-%d0%bd%d1%96%d1%8f%d0%ba%d1%96-%d1%88%d1%96-%d0%bd%d0%b5-%d0%b1%d1%83%d0%b4%d0%b7%d0%b5-%d1%81%d0%b2%d1%8f%d0%b4%d0%be%d0%bc%d1%8b%d0%bc/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Wed, 22 Apr 2026 09:02:33 +0000</pubDate>
				<category><![CDATA[Рэха]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=313</guid>

					<description><![CDATA[<p>У сакавіку 2026 Alexander Lerchner з Google DeepMind выклаў прэпрынт «The Abstraction Fallacy». Тэзіс кароткі: спрэчкі пра тое, ці можа ІІ стаць свядомым, заснаваныя на лагічнай памылцы. І ніякае маштабаванне моцы вылічэнняў яе не выправіць. Сэнс на пальцах Большасць даследчыкаў лічыць: калі зрабіць мадэль дастаткова складанай — свядомасць «з&#8217;явіцца» як пабочны эфект. Lerchner кажа: гэта [&#8230;]</p>
<p>Сообщение <a href="https://deni-deni.digital/%d1%96%d0%bd%d0%b6%d1%8b%d0%bd%d0%b5%d1%80-%d0%b7-deepmind-%d0%bd%d1%96%d1%8f%d0%ba%d1%96-%d1%88%d1%96-%d0%bd%d0%b5-%d0%b1%d1%83%d0%b4%d0%b7%d0%b5-%d1%81%d0%b2%d1%8f%d0%b4%d0%be%d0%bc%d1%8b%d0%bc/">Інжынер з DeepMind: ніякі ШІ не будзе свядомым, колькі яго ні маштабуй</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>У сакавіку 2026 Alexander Lerchner з Google DeepMind <a href="https://deepmind.google/research/publications/231971/?fbclid=IwY2xjawRVbP9leHRuA2FlbQIxMQBzcnRjBmFwcF9pZBAyMjIwMzkxNzg4MjAwODkyAAEePdI9sPI0VDbjEgIqSNy1in-EXXrrebdhtjUPNipVn4Vy2c6F39jvzOZvKI0_aem_FCjIqLhKwFgXxojFGIjNWA" type="link" id="https://deepmind.google/research/publications/231971/?fbclid=IwY2xjawRVbP9leHRuA2FlbQIxMQBzcnRjBmFwcF9pZBAyMjIwMzkxNzg4MjAwODkyAAEePdI9sPI0VDbjEgIqSNy1in-EXXrrebdhtjUPNipVn4Vy2c6F39jvzOZvKI0_aem_FCjIqLhKwFgXxojFGIjNWA">выклаў прэпрынт</a>  «The Abstraction Fallacy». Тэзіс кароткі: спрэчкі пра тое, ці можа ІІ стаць свядомым, заснаваныя на лагічнай памылцы. І ніякае маштабаванне моцы вылічэнняў яе не выправіць.</p>



<p><strong>Сэнс на пальцах</strong></p>



<p>Большасць даследчыкаў лічыць: калі зрабіць мадэль дастаткова складанай — свядомасць «з&#8217;явіцца» як пабочны эфект. Lerchner кажа: гэта як чакаць, што падрабязная формула гравітацыі пачне важыць.</p>



<p>Кампутацыя — гэта апісанне фізічнага працэсу, а не сам працэс. Каб фізічная сістэма «лічыла», нехта звонку павінен вызначыць, якія станы лічыць «0», а якія «1». Гэты «нехта» — ужо свядомы суб&#8217;ект. Значыць, свядомасць не можа ўзнікнуць з вылічэння — яна лагічна папярэднічае яму.</p>



<p><strong>Чаму гэта важна</strong></p>



<p>Аўтар не кажа, што ІІ не будзе небяспечным ці магутным. Наадварот. Ён кажа, што AGI — гэта будзе вельмі разумная, але непрынцыпова няжывая прылада. І галоўная праблема — не «правы робатаў», а антрапамарфізм: людзі пачнуць лічыць машыны асобамі, бо тыя добра імітуюць паводзіны.</p>



<p>Аргумент працуе і супраць эмбадзімента: падключыце ІІ да камер і рук — нічога не зменіцца. Сімулятар надвор&#8217;я з рэальнымі датчыкамі не становіцца атмасферай.</p>



<p><strong>Цікавы момант</strong> — Lerchner працуе ў DeepMind, і прэпрынт выйшаў з disclaimer&#8217;ам, што пазіцыя асабістая.</p>
<p>Сообщение <a href="https://deni-deni.digital/%d1%96%d0%bd%d0%b6%d1%8b%d0%bd%d0%b5%d1%80-%d0%b7-deepmind-%d0%bd%d1%96%d1%8f%d0%ba%d1%96-%d1%88%d1%96-%d0%bd%d0%b5-%d0%b1%d1%83%d0%b4%d0%b7%d0%b5-%d1%81%d0%b2%d1%8f%d0%b4%d0%be%d0%bc%d1%8b%d0%bc/">Інжынер з DeepMind: ніякі ШІ не будзе свядомым, колькі яго ні маштабуй</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Новы движок OpenAI: чаму GPT Image 2 — гэта не Midjourney</title>
		<link>https://deni-deni.digital/%d0%bd%d0%be%d0%b2%d1%8b-%d0%b4%d0%b2%d0%b8%d0%b6%d0%be%d0%ba-openai-%d1%87%d0%b0%d0%bc%d1%83-gpt-image-2-%d0%b3%d1%8d%d1%82%d0%b0-%d0%bd%d0%b5-midjourney/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Tue, 21 Apr 2026 17:58:42 +0000</pubDate>
				<category><![CDATA[ЭйАй]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=310</guid>

					<description><![CDATA[<p>Вясной 2026 OpenAI паказала GPT Image 2 — новае пакаленне ўбудаванага графічнага движка для ChatGPT. Гэта не яшчэ адзін Midjourney з іншым назвіскам. Пад капотам — іншая архітэктура, і вынікі адпаведныя. Як гэта ўладкавана Midjourney, Stable Diffusion і большасць іншых генератараў — дыфузійныя мадэлі. Яны «чысцяць» шум, пакуль з яго не вылупіцца карцінка. Адсюль вядомыя [&#8230;]</p>
<p>Сообщение <a href="https://deni-deni.digital/%d0%bd%d0%be%d0%b2%d1%8b-%d0%b4%d0%b2%d0%b8%d0%b6%d0%be%d0%ba-openai-%d1%87%d0%b0%d0%bc%d1%83-gpt-image-2-%d0%b3%d1%8d%d1%82%d0%b0-%d0%bd%d0%b5-midjourney/">Новы движок OpenAI: чаму GPT Image 2 — гэта не Midjourney</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Вясной 2026 OpenAI паказала GPT Image 2 — новае пакаленне ўбудаванага графічнага движка для ChatGPT. Гэта не яшчэ адзін Midjourney з іншым назвіскам. Пад капотам — іншая архітэктура, і вынікі адпаведныя.</p>



<h3 class="wp-block-heading">Як гэта ўладкавана</h3>



<p>Midjourney, Stable Diffusion і большасць іншых генератараў — дыфузійныя мадэлі. Яны «чысцяць» шум, пакуль з яго не вылупіцца карцінка. Адсюль вядомыя праблемы: літары ператвараюцца ў абракадабру, рукі з шасцю пальцамі, аб&#8217;екты плывуць пры спробе паправіць адну дэталь.</p>



<p>GPT Image 2 ідзе іншым шляхам — аўтарэгрэсійная архітэктура. Тэкст і выявы апрацоўваюцца ў адным трансформеры, як словы ў моўнай мадэлі. Алгарытм разумее логіку сцэны, а не проста камбінуе тэкстуры.</p>



<p>Пасля генерацыі мадэль робіць структурны аналіз карцінкі. Можна прасіць шматлікія кропкавыя праўкі — кампазіцыя не разваліцца. У дыфузіі кожная спроба перамаляваць фрагмент цягне скажэнне ўсяго астатняга.</p>



<h3 class="wp-block-heading">Што цяпер можна</h3>



<p><strong>Тэкст на карцінках працуе.</strong> Сапраўдны. Доўгія абзацы, дробныя шрыфты, шматмоўныя надпісы. Галаўны боль усёй галіны — вырашаны.</p>



<p><strong>UI і макеты.</strong> Інтэрфейсы з чытабельнымі кнопкамі, формамі, падпісамі. Тое ж з тэхнічнымі дыяграмамі.</p>



<p><strong>Фотарэалізм без жоўтага фільтра.</strong> Старыя версіі GPT Image мелі характэрную цёплую заліўку, якая выдавала ІІ з першага позірку. Цяпер — натуральнае святло, нармальныя адлюстраванні.</p>



<p><strong>Структурная стабільнасць.</strong> Аб&#8217;екты трымаюць анатомію паміж генерацыямі. Значыць, можна рабіць серыйныя карцінкі, раскадроўкі, каталогі — без таго, каб кожны кадр жыў сваім жыццём.</p>



<h3 class="wp-block-heading">Як паспрабаваць</h3>



<p>Ніяк. Пакуль. Мадэль у скрытым A/B-тэсце ўнутры ChatGPT. Хтосьці з Pro- ці Plus-карыстальнікаў можа атрымаць доступ выпадкова, але ўключыць адмыслова няма як. OpenAI раскочваюць ціха.</p>
<p>Сообщение <a href="https://deni-deni.digital/%d0%bd%d0%be%d0%b2%d1%8b-%d0%b4%d0%b2%d0%b8%d0%b6%d0%be%d0%ba-openai-%d1%87%d0%b0%d0%bc%d1%83-gpt-image-2-%d0%b3%d1%8d%d1%82%d0%b0-%d0%bd%d0%b5-midjourney/">Новы движок OpenAI: чаму GPT Image 2 — гэта не Midjourney</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Anthropic запусціла Claude Design — прататыпы і прэзентацыі на новым узроўні</title>
		<link>https://deni-deni.digital/anthropic-claude-design/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 20:24:14 +0000</pubDate>
				<category><![CDATA[ЭйАй]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=306</guid>

					<description><![CDATA[<p>Anthropic выкаціла другі прадукт — Claude Design. Гэта новая прылада ад Anthropic Labs для візуальнай працы: дызайн, прататыпы, слайды, ваншытары. Працуе на Opus 4.7, даступны ў research preview для падпісчыкаў Pro, Max, Team і Enterprise. Раскочваюць пакрысе цягам дня. Што ўмее Апісваеш словамі, што трэба — Claude робіць першую версію. Далей правіш: праз чат, каментары [&#8230;]</p>
<p>Сообщение <a href="https://deni-deni.digital/anthropic-claude-design/">Anthropic запусціла Claude Design — прататыпы і прэзентацыі на новым узроўні</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Anthropic выкаціла другі прадукт — Claude Design. Гэта новая прылада ад Anthropic Labs для візуальнай працы: дызайн, прататыпы, слайды, ваншытары. Працуе на Opus 4.7, даступны ў research preview для падпісчыкаў Pro, Max, Team і Enterprise. Раскочваюць пакрысе цягам дня.</p>



<p><strong>Што ўмее</strong></p>



<p>Апісваеш словамі, што трэба — Claude робіць першую версію. Далей правіш: праз чат, каментары ў канкрэтных месцах, прамое рэдагаванне ці слайдары, якія Claude сам і стварае пад тваю задачу. Калі даць доступ да кодбазы і дызайн-файлаў — падцягне брэнд-сістэму каманды і будзе трымацца яе ва ўсіх праектах.</p>



<p>Імпарт адусюль: тэкст, карцінкі, DOCX, PPTX, XLSX, кодбаза. Ёсць web capture — хапае элементы прама з твайго сайта, каб прататып быў падобны на рэальны прадукт.</p>



<p>Экспарт куды захочаш: URL для каманды, тэчка, Canva, PDF, PPTX, асобны HTML. Гатовы дызайн можна адным клікам перадаць у Claude Code на рэалізацыю.</p>



<p><strong>Каму трэба</strong></p>



<ul class="wp-block-list">
<li><strong>Дызайнерам</strong> — хутка накідаць дзесяць варыянтаў замест трох, рабіць інтэрактыўныя прататыпы без PR-аў</li>



<li><strong>PM</strong> — wireframe&#8217;ы і флоу за 5 хвілін</li>



<li><strong>Фаўндэрам і маркетолагам</strong> — пітч-дэкі, лэндынгі, соцсеткі без дызайнера</li>



<li><strong>Усім астатнім</strong> — хто мае ідэю, але не ўмее ў Figma</li>
</ul>



<p><strong>Як паспрабаваць</strong></p>



<p>Патрэбна падпіска Pro ($20/мес), Max, Team ці Enterprise. Бясплатны тарыф пакуль не запрашаюць. Раскочваюць цягам дня — калі не бачыш у інтэрфейсе, пачакай.</p>
<p>Сообщение <a href="https://deni-deni.digital/anthropic-claude-design/">Anthropic запусціла Claude Design — прататыпы і прэзентацыі на новым узроўні</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Claude Opus 4.7: што ў ім новага і каму з гэтага карысць</title>
		<link>https://deni-deni.digital/claude-opus-4-7/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 20:16:43 +0000</pubDate>
				<category><![CDATA[ЭйАй]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=304</guid>

					<description><![CDATA[<p>16 красавіка Anthropic выкаціла Claude Opus 4.7 — наступніка Opus 4.6. Не рэвалюцыя (гэтае слова мы тут не ўжываем), а акуратны апгрэйд з некалькімі рэчамі, якія адчуеш адразу, калі карыстаешся мадэллю штодня. Літэральна слухае Галоўная змена ў паводзінах: 4.7 выконвае інструкцыі даслоўна. Раней Claude мог «інтэрпрэтаваць» твой промпт — нешта прапусціць, нешта дадаць ад сябе. [&#8230;]</p>
<p>Сообщение <a href="https://deni-deni.digital/claude-opus-4-7/">Claude Opus 4.7: што ў ім новага і каму з гэтага карысць</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>16 красавіка Anthropic выкаціла Claude Opus 4.7 — наступніка Opus 4.6. Не рэвалюцыя (гэтае слова мы тут не ўжываем), а акуратны апгрэйд з некалькімі рэчамі, якія адчуеш адразу, калі карыстаешся мадэллю штодня.</p>



<h2 class="wp-block-heading">Літэральна слухае</h2>



<p>Галоўная змена ў паводзінах: 4.7 выконвае інструкцыі даслоўна. Раней Claude мог «інтэрпрэтаваць» твой промпт — нешта прапусціць, нешта дадаць ад сябе. Цяпер не. Калі ты напісаў «тры пункты» — будзе тры, не чатыры.</p>



<p>Пабочны эфект: старыя промпты, заменчаныя пад 4.6, могуць даваць нечаканы вынік. Anthropic прама кажа — перабярыце свае шаблоны. Гэта не баг, гэта цана дакладнасці.</p>



<h2 class="wp-block-heading">Зрок у HD</h2>



<p>4.7 бачыць карцінкі ў тры з паловай разы большага памеру — да 2576 пікселяў па доўгім боку (каля 3,75 мегапікселя). На практыцы гэта значыць:</p>



<ul class="wp-block-list">
<li>скрыншоты інтэрфейсаў чытаюцца без «а што там дробнымі літарамі»</li>



<li>складаныя дыяграмы і графікі разбіраюцца цалкам</li>



<li>OCR-задачы і праца з дакументамі — без перадаблічвання на фрагменты</li>
</ul>



<p>Калі ты калі-небудзь мучыўся з тым, што Claude «не бачыць» дробязяў на скрыне — вось, паправілі.</p>



<h2 class="wp-block-heading">Памяць праз файлы</h2>



<p>Мадэль лепш працуе з памяццю на аснове файлавай сістэмы. Перакладаючы з тэхнічнага: у доўгіх шматсесійных праектах 4.7 лепш трымае нататкі і не патрабуе перазагружаць кантэкст кожны раз. Для тых, хто жыве ў Claude Code ці вядзе доўгія агенцкія задачы — адчувальна.</p>



<h2 class="wp-block-heading">Кодынг і праца з дакументамі</h2>



<p>Тут галоўныя лічбы прэс-рэлізу. 4.7 робіць лепш складаныя праграмісцкія задачы — тыя, што раней патрабавалі няньчыць мадэль. Плюс ён state-of-the-art на GDPval-AA (гэта тэст на «эканамічна карыснай» працы — фінансы, права, аналітыка). Таксама лепш робіць прэзентацыі і дакументы.</p>



<p>Для Claude Code дадалі каманду <code>/ultrareview</code> — асобная сесія-рэўю, якая чытае змены і шукае багі. Pro- і Max-юзерам даюць тры бясплатныя спробы. І ўключылі auto mode для Max — Claude сам прымае рашэнні падчас доўгіх задач, без пастаянных «можна я гэта зраблю?».</p>



<h2 class="wp-block-heading">Токены — асцярожна</h2>



<p>Тут падводны камень. 4.7 выкарыстоўвае новы такенізатар — той самы тэкст можа разбівацца на 1,0–1,35× больш токенаў, чым раней. Плюс на высокіх узроўнях «намагання» мадэль думае больш, значыць, і піша больш.</p>



<p>Кошт застаўся тым жа: $5 за мільён уваходных токенаў і $25 за мільён выходных. Але калі ў цябе піплайны на аб&#8217;ёмах — правер, колькі гэта будзе каштаваць рэальна, перш чым пераключацца.</p>



<p>Anthropic увяла новы ўзровень намагання <code>xhigh</code> — паміж <code>high</code> і <code>max</code>. У Claude Code яго паставілі па змаўчанні.</p>



<h2 class="wp-block-heading">Што з бяспекай</h2>



<p>Mythos Preview — самая прасунутая мадэль Anthropic — застаецца ў абмежаваным доступе. 4.7 — першая мадэль, на якой тэстуюць новыя засцерагальнікі перад шырокім выпускам Mythos-класа. У прыватнасці — аўтаматычнае выяўленне запытаў на кібербяспекавыя задачы. Для прафесіяналаў галіны ёсць Cyber Verification Program.</p>



<h2 class="wp-block-heading">Каму гэта патрэбна прама цяпер</h2>



<ul class="wp-block-list">
<li><strong>Кодэрам</strong> — абнавіцца варта, асабліва калі працуеш у Claude Code</li>



<li><strong>Тым, хто будуе агентаў</strong> — лепшая памяць і vision</li>



<li><strong>Фінансістам/аналітыкам</strong> — SOTA на профільных тэстах</li>



<li><strong>Усім астатнім</strong> — апгрэйд адбываецца аўтаматычна ў chat.claude.ai, проста пераправерце свае промпты</li>
</ul>
<p>Сообщение <a href="https://deni-deni.digital/claude-opus-4-7/">Claude Opus 4.7: што ў ім новага і каму з гэтага карысць</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Memory у Claude — нарэшце зроблена па-чалавечы</title>
		<link>https://deni-deni.digital/memory-%d1%83-claude-%d0%bd%d0%b0%d1%80%d1%8d%d1%88%d1%86%d0%b5-%d0%b7%d1%80%d0%be%d0%b1%d0%bb%d0%b5%d0%bd%d0%b0-%d0%bf%d0%b0-%d1%87%d0%b0%d0%bb%d0%b0%d0%b2%d0%b5%d1%87%d1%8b/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Thu, 16 Apr 2026 08:30:15 +0000</pubDate>
				<category><![CDATA[ЭйАй]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=298</guid>

					<description><![CDATA[<p>Anthropic уключыў памяць у Claude для ўсіх, нават на бясплатным плане. Цяпер бот памятае вашу ролю, праекты, стыль кода і як з вамі размаўляць. Папярэдняя версія &#171;Claude без кантэксту&#187; — усё, забылі. Працуе гэта проста. Claude сам робіць зводку вашых размоваў і абнаўляе яе раз на 24 гадзіны. Кожны новы чат пачынаецца не з нуля, [&#8230;]</p>
<p>Сообщение <a href="https://deni-deni.digital/memory-%d1%83-claude-%d0%bd%d0%b0%d1%80%d1%8d%d1%88%d1%86%d0%b5-%d0%b7%d1%80%d0%be%d0%b1%d0%bb%d0%b5%d0%bd%d0%b0-%d0%bf%d0%b0-%d1%87%d0%b0%d0%bb%d0%b0%d0%b2%d0%b5%d1%87%d1%8b/">Memory у Claude — нарэшце зроблена па-чалавечы</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><a href="https://support.claude.com/en/articles/11817273-use-claude-s-chat-search-and-memory-to-build-on-previous-context" target="_blank" rel="noreferrer noopener">Anthropic уключыў</a> памяць у Claude для ўсіх, нават на бясплатным плане. Цяпер бот памятае вашу ролю, праекты, стыль кода і як з вамі размаўляць. Папярэдняя версія &#171;Claude без кантэксту&#187; — усё, забылі.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="747" src="https://deni-deni.digital/wp-content/uploads/2026/04/Screenshot-2026-04-16-at-09.33.23-1024x747.png" alt="" class="wp-image-300" srcset="https://deni-deni.digital/wp-content/uploads/2026/04/Screenshot-2026-04-16-at-09.33.23-1024x747.png 1024w, https://deni-deni.digital/wp-content/uploads/2026/04/Screenshot-2026-04-16-at-09.33.23-300x219.png 300w, https://deni-deni.digital/wp-content/uploads/2026/04/Screenshot-2026-04-16-at-09.33.23-768x560.png 768w, https://deni-deni.digital/wp-content/uploads/2026/04/Screenshot-2026-04-16-at-09.33.23.png 1154w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<p>Працуе гэта проста. Claude сам робіць зводку вашых размоваў і абнаўляе яе раз на 24 гадзіны. Кожны новы чат пачынаецца не з нуля, а з пэўным разуменьнем, хто вы і чым займаецеся. У кожнага праекта — свая ўласная памяць, якая не перасякаецца з іншымі. Зручна: рабочы праект не ляціць ў асабісты.</p>



<p>Чаму гэта важна. Да гэтага моманту ШІ-асыстэнты былі як залётны калега: штораз трэба тлумачыць спачатку, хто ты, што робіш і чаму не хочаш смайлікі ў адказах. Цяпер Claude памятае, што ты пішаш на тарашкевіцы, любіш кароткія сказы і ненавідзіш пафас. Эканомія часу — велізарная.</p>



<p>Пошук па старых чатах — асобная фіча на платных планах. Кажаш &#171;а што мы абмяркоўвалі пра X тыдзень таму&#187; — і ён падцягвае. Працуе праз RAG, бачна як выклік інструмэнту ў чаце.</p>



<p>Кантроль поўны. Settings → Capabilities → View and edit memory — і бачыш увесь спіс, што ён пра цябе ведае. Можна выдаліць, паставіць на паўзу або абнуліць цалкам. Ёсьць інкогніта-чаты (іконка прывіда ў куце) — там нічога не захоўваецца. Выдаляеш размову — яе зьмест зьнікае з памяці за суткі.</p>



<p>Бонус: можна імпартаваць памяць з іншых ШІ-асыстэнтаў і экспартаваць сваю ў бэкап. Пакуль экспэрымэнтальна, але ўжо працуе.</p>



<p>Кантэкст тут такі. Гонка памяці паміж ChatGPT, Gemini і Claude ідзе ўжо год. OpenAI зрабіў сваю версію яшчэ ў 2024-м, але яна доўга была для платных. Anthropic падышоў інакш: адкрыў для ўсіх адразу, дадаў раздзяленьне па праектах (чаго ў ChatGPT няма) і даў нармальныя інструмэнты кіраваньня. Тэхналягічна — стандартны RAG плюс сумарызацыя, нічога магічнага. Практычна — сур&#8217;ёзны апгрэйд штодзённага досьведу. Асабліва калі вы рэдактар, праграміст або той, хто круціць адразу некалькі праектаў і стаміўся паўтараць ШІ адно і тое ж.</p>
<p>Сообщение <a href="https://deni-deni.digital/memory-%d1%83-claude-%d0%bd%d0%b0%d1%80%d1%8d%d1%88%d1%86%d0%b5-%d0%b7%d1%80%d0%be%d0%b1%d0%bb%d0%b5%d0%bd%d0%b0-%d0%bf%d0%b0-%d1%87%d0%b0%d0%bb%d0%b0%d0%b2%d0%b5%d1%87%d1%8b/">Memory у Claude — нарэшце зроблена па-чалавечы</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>За 15 гадоў колькасьць навуковых артыкулаў пра ШІ вырасла ў 30 разоў. І гэта праблема</title>
		<link>https://deni-deni.digital/%d0%b7%d0%b0-15-%d0%b3%d0%b0%d0%b4%d0%be%d1%9e-%d0%ba%d0%be%d0%bb%d1%8c%d0%ba%d0%b0%d1%81%d1%8c%d1%86%d1%8c-%d0%bd%d0%b0%d0%b2%d1%83%d0%ba%d0%be%d0%b2%d1%8b%d1%85-%d0%b0%d1%80%d1%82%d1%8b%d0%ba%d1%83/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Wed, 15 Apr 2026 10:22:35 +0000</pubDate>
				<category><![CDATA[Рэха]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=295</guid>

					<description><![CDATA[<p>Стэнфард выпусьціў штогадовы AI Index 2026 — і там цікавы парадокс. Навукоўцы накінуліся на ШІ як ніколі, але самыя крутыя ШІ-агенты ўсё яшчэ робяць складаныя задачы ўдвая горш за чалавека з PhD.</p>
<p>Сообщение <a href="https://deni-deni.digital/%d0%b7%d0%b0-15-%d0%b3%d0%b0%d0%b4%d0%be%d1%9e-%d0%ba%d0%be%d0%bb%d1%8c%d0%ba%d0%b0%d1%81%d1%8c%d1%86%d1%8c-%d0%bd%d0%b0%d0%b2%d1%83%d0%ba%d0%be%d0%b2%d1%8b%d1%85-%d0%b0%d1%80%d1%82%d1%8b%d0%ba%d1%83/">За 15 гадоў колькасьць навуковых артыкулаў пра ШІ вырасла ў 30 разоў. І гэта праблема</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><a href="https://www.nature.com/articles/d41586-026-01199-z" target="_blank" rel="noreferrer noopener">Стэнфард выпусьціў</a> штогадовы AI Index 2026 — і там цікавы парадокс. Навукоўцы накінуліся на ШІ як ніколі, але самыя крутыя ШІ-агенты ўсё яшчэ робяць складаныя задачы ўдвая горш за чалавека з PhD.</p>



<p>Лічбы трывожаць. У 2025-м больш за 80 000 публікацыяў у прыродазнаўчых навуках згадалі ШІ — на 26% больш, чым летась. З 2010 года рост — у 30 разоў. Найбольш — у фізіцы (33 000 артыкулаў), найбольшы адсотак — у навуках пра Зямлю (9%).</p>



<p>Зьявіліся і &#171;fundation-мадэлі для навукі&#187; — спэцыяльна навучаныя на велізарных датасэтах канкрэтнай галіны. Сярод свежых — AION-1 для астраноміі, навучаная на 200 мільёнах нябесных аб&#8217;ектаў. Класыфікуе галактыкі, ацэньвае іх уласьцівасьці. Год таму навукоўцы нават ня ведалі, што такія мадэлі існуюць.</p>



<p>Але вось у чым прыкол. ШІ-агенты — тыя, што нібыта павінны самі рабіць шматкрокавыя экспэрымэнты — паказваюць сябе так сабе. Лепшыя зь іх набіраюць прыкладна палову ад балу чалавека-спэцыяліста. &#171;Агенты цудоўныя, але мы яшчэ далёка ад таго, каб разумець, як іх эфэктыўна выкарыстоўваць&#187;, — кажа Ёлянда Гіл з Унівэрсытэта Паўднёвай Каліфорніі, якая вяла справаздачу.</p>



<p>Скептычна настроены і Арвінд Нараянан з Прынстана: &#171;Гэта адбываецца занадта хутка, навуковыя нормы ня пасьпяваюць адаптавацца, таму якасьць дасьледаваньняў пайшла ў піке&#187;. Гіл згаджаецца, што доказаў росту прадуктыўнасьці пакуль мала. Але дадае: &#171;Калі забраць у навукоўцаў ШІ, будзе бунт. Значыць, у нечым ён дапамагае&#187;.</p>



<p>Кантэкст просты: апошнія тры гады ўсе казалі, што ШІ вось-вось заменіць цэлыя сэгмэнты навуковай працы. Стэнфард паказвае рэальную карціну. ШІ ўжо ўсюды — у пошуку літаратуры, у апрацоўцы дадзеных, у генэрацыі гіпотэзаў. Але рабіць поўны цыкл дасьледаваньня самастойна ён яшчэ ня ўмее. Пакуль што гэта моцны асыстэнт, а ня калега. І галоўнае пытаньне на наступны год — ці паспеюць навуковыя стандарты дагнаць хуткасьць укараненьня. Бо калі не — атрымаем гару артыкулаў, якія ніхто ня здолее правільна перачытаць.</p>
<p>Сообщение <a href="https://deni-deni.digital/%d0%b7%d0%b0-15-%d0%b3%d0%b0%d0%b4%d0%be%d1%9e-%d0%ba%d0%be%d0%bb%d1%8c%d0%ba%d0%b0%d1%81%d1%8c%d1%86%d1%8c-%d0%bd%d0%b0%d0%b2%d1%83%d0%ba%d0%be%d0%b2%d1%8b%d1%85-%d0%b0%d1%80%d1%82%d1%8b%d0%ba%d1%83/">За 15 гадоў колькасьць навуковых артыкулаў пра ШІ вырасла ў 30 разоў. І гэта праблема</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wearables 2026: палова прылад сочыць за тваім здароўем, а ты — за імі</title>
		<link>https://deni-deni.digital/wearables-2026-%d0%bf%d0%b0%d0%bb%d0%be%d0%b2%d0%b0-%d0%bf%d1%80%d1%8b%d0%bb%d0%b0%d0%b4-%d1%81%d0%be%d1%87%d1%8b%d1%86%d1%8c-%d0%b7%d0%b0-%d1%82%d0%b2%d0%b0%d1%96%d0%bc-%d0%b7%d0%b4%d0%b0%d1%80/</link>
		
		<dc:creator><![CDATA[Deni Vasilkou]]></dc:creator>
		<pubDate>Wed, 15 Apr 2026 10:16:15 +0000</pubDate>
				<category><![CDATA[ЭйАй]]></category>
		<guid isPermaLink="false">https://deni-deni.digital/?p=293</guid>

					<description><![CDATA[<p>У 2026-м кожная другая разумная прылада на тваім целе ўмее не толькі лічыць крокі, але і прадказваць хваробы. Рынак насімага ШІ — $55,7 мільярда. Гэта ўжо не цацка для гікаў.</p>
<p>Сообщение <a href="https://deni-deni.digital/wearables-2026-%d0%bf%d0%b0%d0%bb%d0%be%d0%b2%d0%b0-%d0%bf%d1%80%d1%8b%d0%bb%d0%b0%d0%b4-%d1%81%d0%be%d1%87%d1%8b%d1%86%d1%8c-%d0%b7%d0%b0-%d1%82%d0%b2%d0%b0%d1%96%d0%bc-%d0%b7%d0%b4%d0%b0%d1%80/">Wearables 2026: палова прылад сочыць за тваім здароўем, а ты — за імі</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p>У 2026-м кожная другая разумная прылада на тваім целе ўмее не толькі лічыць крокі, але і прадказваць хваробы.<a href="https://scoop.market.us/smart-wearables-statistics/" type="link" id="https://scoop.market.us/smart-wearables-statistics/" target="_blank" rel="noreferrer noopener"> Рынак насімага ШІ — $55,7 мільярда.</a> Гэта ўжо не цацка для гікаў.</p>



<p>614 мільёнаў прылад паедзе да пакупнікоў сёлета. 40% зь іх — з ШІ &#171;з заводу&#187;. Больш за палова ўсіх wearables ужо аналізуе пульс, сон, ЭКГ і ціха шэпча: &#171;брат, схадзі да доктара&#187;.</p>



<p>Асобна — медыцына. $117,4 мільярда, поўны сур&#8217;ёз: маніторынг хранічных захворваньняў, прагнозы, алерты. Гадзіньнік ператвараецца ў фельчара, які заўжды з табою.</p>



<p>Яшчэ гадоў пяць таму &#171;разумны&#187; гадзіньнік умеў дзьве рэчы: паказваць час і вібраваць на імэйл. Цяпер унутры — мадэлі, якія параўноўваюць твае паказчыкі з мільёнамі іншых і заўважаюць адхіленьні раней за цябе самога. Apple, Samsung, Google, Huawei і дзясяткі стартапаў ткнулі ШІ ў кожны датчык. Таму што менавіта здароўе аказалася той фічай, за якую людзі гатовыя плаціць. Не за новы цыфэрблат — за спакой.</p>



<p>Медыцынскі сэгмэнт расьце хутчэй за ўвесь wearables-рынак. Мяжа паміж &#171;фітнес-трэкерам&#187; і &#171;медыцынскай прыладай&#187; расплываецца. ФДА ў ЗША ўжо сэртыфікуе ЭКГ на спажывецкіх гадзіньніках. Далей — больш.</p>
<p>Сообщение <a href="https://deni-deni.digital/wearables-2026-%d0%bf%d0%b0%d0%bb%d0%be%d0%b2%d0%b0-%d0%bf%d1%80%d1%8b%d0%bb%d0%b0%d0%b4-%d1%81%d0%be%d1%87%d1%8b%d1%86%d1%8c-%d0%b7%d0%b0-%d1%82%d0%b2%d0%b0%d1%96%d0%bc-%d0%b7%d0%b4%d0%b0%d1%80/">Wearables 2026: палова прылад сочыць за тваім здароўем, а ты — за імі</a> появились сначала на <a href="https://deni-deni.digital">Deni Deni Digital</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
