TechSparks
46.5K subscribers
382 photos
107 videos
16 files
4.61K links
Аннотированные ссылки на интересные, полезные и удивительные новости хайтека.
Кто больше любит слушать длинное чем читать короткое http://sebrant.chat
https://knd.gov.ru/license?id=6777b11d506f967728ac580d&registryType=bloggersPermission
Автор: @asebrant
Download Telegram
Вторая статья — про междисциплинарные применения, конкретно, про историю. ИИ позволяет работать с источниками и архивами так, как человек физически не в состоянии: прочитать сотни тысяч документов, например, и обнаружить в них интересные связи и корреляции.
Ну или даже если сам ИИ ничего значимого не придумал, появляется возможность поговорить с огромным массивом документов, на прочтение которых ушли бы годы — и все равно они бы не отложились в памяти целиком. Это очень близко к моему ныне любимому формату знакомства с профессиональной литературой: сначала несколько минут поговорить с книгой на сотни страниц, чтобы понять, какие места в ней стоит прочитать, и только потом обратиться к тексту (или понять, что не стоит и обращаться)
Для дисциплин типа истории такой подход обещает появление новых нарративов, позволяющих вроде бы известные события или процессы увидеть по-новому на основе документов; а в конечном счете именно нарратив решает, как видит историю большинство людей.
Так что местами будет интересно:)
https://www.nytimes.com/2025/06/16/magazine/ai-history-historians-scholarship.html
👍9023🔥12👎2💩2
Недавно ученые из MIT опубликовали работу, которую бросились пересказывать технофобы все мастей: якобы появилось доказательство, что если писать эссе с помощью ChatGPT, то нарастает некий “когнитивный долг”, снижается способность к обучению и вообще ужас-ужас. Я эту работу здесь не упоминал и не комментировал, потому что прочитал подробно и она вызвала кучу вопросов как относительно постановки эксперимента, так и относительно глобальных обобщений крайне частных результатов. Но, увы, на подробный разбор времени не было.
К счастью, оно нашлось у других, и вот тут я ссылкой поделюсь:)
Авторы задают справедливые вопросы к постановке и приводят хорошую аналогию: когда-то до изобретения калькулятора часто давали задачи, которые требовали интенсивных ручных вычислений (деление некруглого пятизначного числа на трехзначное на бумаге — неприятная и требующая сосредоточения процедура, например).
Потом появились калькуляторы, и решение простых по сути, но вычислительно сложных задач перестало требовать от студента прежних умственных усилий.
Ответом стали не жалобы, что студенты стали слишком легко решать задачи и это якобы ведет к “атрофии мыслительной мышцы” — а изменение задач, в которых когнитивную нагрузку теперь создавали не вычисления, а рассуждения, недоступные калькулятору.
И это очень точно описывает суть теперешних проблем. Новые технологии требуют новых задач и методов как обучения, так и проверки; методов, которые заставляют студента думать самостоятельно.
Пример выше с “вычислительной сложностью”, от которой пришлось отказаться, полезно вспоминать каждый раз, когда нам говорят, что студенты начинают обманывать и глупеют в итоге из-за использования ИИ. Они-то ведут себя по-умному: делегируют машине то, что она сумеет сделать лучше. А вот нежелание преподавателей перестроить процессы обучения и тестирования так, чтобы не пришлось делегировать, а пришлось подумать самому — это проблемы системы образования, а не ИИ-технологий.
https://theconversation.com/mit-researchers-say-using-chatgpt-can-rot-your-brain-the-truth-is-a-little-more-complicated-259450
96👍51🔥28👎14👏2💩1
Если кому-то мало поводов для страхов и беспокойства — вот вам свеженький: в гуманоидного робота встроили реактивные двигатели и собираются научить его летать без внешних приборов. Пока это только отрыв от земли и недолгое зависание, да еще и на привязи, чтоб не повредил себя ненароком.
Но цель, конечно, - свободный автономный полет. Так что есть немалая вероятность, что не только дроны будут над нами летать, но и вот такие на нас похожие железные милашки
https://www.livescience.com/technology/robotics/intrepid-baby-faced-robot-dons-a-jetpack-for-its-next-adventure-becoming-the-first-humanoid-robot-to-fly
😁30💩179🔥5👍1
Очень полезная напоминалка о том, что современный ИИ — это много больше, чем чатики всех сортов или даже автономные агенты. Модели с теми же архитектурами, которые используются для привычных генераций текстов или картинок, могут обучаться на совершенно иных массивах данных, подчас далеких от языков или изображений.
Яркий и авторитетный пример — Alpha Fold от DeepMind, которая на порядки ускорила сложный и многостадийный процесс изучения свойств белков, так что удалось to predict the shape of every protein known to science in just two years, a feat that could have transformative impact on biomedical research. Третья версия модели работает уже не только с белками, но и с другими биомолекулами, включая ДНК. По силе влияния на фармацевтику медицину ИИ просто не с чем сравнить. А про влияние фармацевтики на нашу жизнь мы все знаем.
Похожее происходит и в материаловедении, где ИИ научился находить новые материалы, которые будут обладать заданными свойствами. Про метеорологию я на днях тут уже писал.
One of AI’s biggest strengths is its ability to model systems far too complex for conventional computational techniques. А таких систем вокруг масса; если внимательно приглядеться — всё вокруг сложное и нелинейное, так что классическое моделирование работает только в грубом приближении. Но теперь есть средство помощней, и именно про это говорят руководители бигтеха: ИИ уже начинает менять мир не видосиками, не разговорами, не постами в ТикТоке — а ускорением прогресса прикладных наук, от которых зависит наше здоровье, окружающая нас среда и материальный мир.
https://singularityhub.com/2025/06/26/the-dream-of-an-ai-scientist-is-closer-than-ever/
82🔥37👍23
Menlo Ventures выпустили свеженький отчет о том, как американцы используют чат-боты. Статистика любопытная.
Ежедневно ими пользуются 20% взрослого населения, в три раза больше хотя бы попробовали (пользовались хотя бы раз за последние полгода).
При этом среди ежедневной аудитории нет сильной возрастной зависимости: 18-28 лет — 21%; 29-44 года — 24%; 45-60 лет — 19% и только потом начинается заметный спад.
Меня впечатлило отсутствие явного лидера с большим отрывом в ответах на вопрос о том, к какому ИИ-ассистенту люди обращаются в первую очередь. Я ожидал, конечно, что люди окажутся мультипользователями, и что ChatGPT будет на первом месте — и он действительно там, вот только нет никакого безоговорочного лидера (как Гугл в поиске, например). Именно эту картинку я и включил в пост; она лучше любых рассуждений показывает, насколько еще не сформирован рынок и какая интереснейшая конкуренция будет нас радовать еще долгое время.
В отчете еще много интересной статистики, но тут уж вы сами, дорогие читатели:)
https://menlovc.com/perspective/2025-the-state-of-consumer-ai/
260👍27🔥8
На заметку любителям новых терминов: только-только всех начали учить промт-инжинирингу, только-только про промтинг заговорили все, от школьных учителей до продавцов инфобиза — и на тебе. Промт-инжиниринг - это, как выясняется, прошлый год (а в ИИ-мире это означает замшелый прошлый век).
Теперь, говорят, пора учиться контекст-инжинирингу, если хочешь всерьез работать с современным ИИ. Если шуточки в сторону, то в новом названии (и подходе) есть реальный смысл. CEO Shopify формулирует его так: It describes the core skill better: the art of providing all the context for the task to be plausibly solvable by the LLM.
Промт ведь, даже затейливый, — просто инструкция, а в реальных задачах почти всегда очень важен контекст, без него ответы нередко либо поверхностны, либо глуповаты. Вот тут-то и появляется необходимость овладеть delicate art and science of filling the context window with just the right information for the next step. Беда, правда, в том, что для этого надо неплохо владеть предметной областью и уметь думать, а любители промтить всеми силами стараются этого избежать:)
https://officechai.com/ai/context-engineering/
👍90👏2821😁16🔥3👎1💩1
На прошлой неделе начала работать — и публиковать завораживающие фотографии космоса — обсерватория Вера Рубин в Чили. Мы привыкли за последние годы, что фантастические космические пейзажи нам поставляют расположенные в космосе телескопы: сначала Hubble, потом JWST. Оба они, однако решают специфические задачи, для которых важно получать изображения в том диапазоне длин волн, который человеческий глаз увидеть не в состоянии: красочные картинки, которыми мы восхищаемся — это не фотография с реальной цветопередачей, а цифровая обработка невидимого изображения в условных цветах. А вот наземный телескоп в чилийских горах не зря называют самой большой цифровой камерой в мире, он работает преимущественно в видимом диапазоне, захватывая ближние ИК и УФ диапазоны. Размеры там и правда огромные: зеркало телескопа имеет диаметр 8,4 метра, а комплект ПЗС-матриц обеспечивает получение кадров в 3,2 гигапикселя.
И теперь мы можем любоваться космосом в реальных цветах и колоссальном увеличении. А про научную программу почитайте сами:)
https://www.livescience.com/space/astronomy/rubin-observatory-releases-sneak-peek-of-first-images-taken-with-worlds-largest-camera
Технические подробности — https://rubinobservatory.org/for-scientists/rubin-101/instruments
70👍24🔥19👏4👎1
Лидеры ИИ-гонки начали активно бороться за аудиторию учащихся — что логично. Чем раньше воспитаешь лояльных пользователей, тем выше вероятность, что и в своей профессиональной деятельности они сохранят свои предпочтения (и будут готовы за них платить). Месяц назад OpenAI анонсировали свой ChatGPT Edu, ориентированный на всех участников университетской жизни, от студентов до преподавателей и администраторов.
А сегодня уже Гугл объявил о запуске Gemini for Education, “built for the unique needs of the educational community.”
Не надо думать, что это спешный ответ на действия конкурента: такие продукты разрабатываются и тестируются не один месяц, так что обе компании явно давно нацелились на сегмент образования, просто одна добежала до запуска чуть раньше другой. Зато теперь начнется явная конкуренция, за ней будет интересно следить, немножко завидуя штатовским студентам.
https://9to5google.com/2025/06/30/gemini-education-iste-2025/
(А это про ChatGPT Edu, если кто пропустил, а сейчас заинтересовался
https://openai.com/index/introducing-chatgpt-edu/)
41👍11😁7👏2🔥1
Forwarded from Data Secrets
А пока OpenAI ушли на каникулы, чтобы не растерять оставшихся ученых, Цукерберг на радостях знакомит сотрудников Meta со свеженабранным подразделением под названием «Суперинтеллект»

Журналисты даже смогли каким-то образом достать служебную записку, в которой перечислены все имена и биографии новых исследователей.

Среди них – те самые ученые, которые ушли из OpenAI, а также несколько бывших сотрудников Google и Anthropic. Есть очень громкие имена. Ссылка на список.

«Мы назовем наше новое подразделение Meta Superintelligence Labs (MSL). Оно включает в себя все наши фонды, продукты и команды FAIR, а также новую лабораторию, сосредоточенную на разработке следующего поколения наших моделей»


Ну-с, ждем релизов
😁55👍21💩136🔥5👎3🤬2
Нынче в мире ИИ стартапов цифра в 105 млн долларов не вызывает особого удивления, но пока еще нечасто такие деньги поднимает, прежде чем открыться, лаборатория робототехники. Но, конечно, Genesis AI позиционирует себя не так прозаично. “General-purpose robots powered by physical AI will define the next major chapter of human history,” — заявляет CEO новорожденной компании Zhou Xian (и уже в порядке вещей его китайское имя). Он отмечает что digital AI добился колоссальных результатов, в то время как physical AI — the intelligence that allows machines to perceive, understand and interact with the real world — has lagged behind. И вот это отставание стартап собирается сократить, создав полноценную фундаментальную модель RFM — robotics foundation model.
Высказывания фаундера сильно напоминают слова, которые не устает повторять Дженсен Хуанг, даже странно, что среди инвесторов нет Nvidia
https://siliconangle.com/2025/07/01/robotics-lab-genesis-ai-launches-105m-develop-universal-robot-foundation-model-ai-platform/
🔥2114😁2👍1👎1
Похоже, что многомесячная эпопея на тему судьбы 23andMe завершилась благополучно (в первую очередь для тех, чьи генетические данные были в базе данных обанкротившейся компании). Судья, ведущий дело о банкротстве, одобрил продажу компании некоммерческому фонду, который возглавляет бывшая руководительница 23andMe (и, кстати, бывшая жена Сергея Брина) Анна Войжитски. 
В 2008 журнал Time назвал сервис тестирования ДНК компанией года, в лучшие времена компания оценивалась в 6 млрд долл — но устойчивую бизнес-модель так и не нашла. Ее услуги оставались для подавляющего большинства клиентов однократными.
Теперь компания продана за 305 млн. Что по этому поводу испытывает бывшая CEO, сказать сложно, а вот многие миллионы встревоженных пользователей должны испытывать облегчение   
https://www.latimes.com/business/story/2025-07-01/court-approves-sale-of-23andme-to-nonprofit-led-by-its-founder-anne-wojcicki
👍3110👎2
Давным-давно, в студенческие годы, я проводил летние каникулы в геологических партиях в довольно пустынных краях, таская за геологами камни в рюкзаке. Там я впервые познакомился с удивительным ощущением, когда разбиваешь геологическим молотком какой-то серый невзрачный камушек — а внутри оказывается сверкающая кварцевая щеточка или яркие аметисты. 
Поэтому могу немножко представить ощущения планетологов, изучающих Марс с помощью Curiosity. Они тоже уже годами наблюдают массу примерно однотонных камней местами припорошенных пылью. Конечно, инструменты позволяют забуриться в грунт и поизучать его состав, но внешне картинка лишена ярких особенностей. Но однажды марсоход так удачно наехал на один из камушков, что тот раскололся, а когда осколки попали в поле зрения камеры, то вдруг вместо стертых за миллионы лет буроватых камней показались желто-зеленые и острые кристаллы чистой серы.
Оставим ученым осознавать все последствия этого открытия для планетологии, они потом нам расскажут. Пока я просто завидую тому восторгу, который они испытали, увидев среди довольно мертвого, в общем, пейзажа яркий совсем не марсианский цвет и четкие грани самородной серы. 
https://www.sciencealert.com/curiosity-cracked-open-a-rock-on-mars-and-discovered-a-huge-surprise
194🔥35👍33😁2👎1💩1
Как же хорошо, что люди не перестают изобретать велосипеды, как бы кто ни глумился над якобы бестолковостью такого занятия. Вот вам, пожалуйста, еще один городской красавец со всеми положенными технологиями (к счастью, без ИИ, просто — connected:))
Создатель скромно заявляют, что их велик sets the tone for the evolution of cycling.
Он, конечно, не для спорта, и даже для загородных прогулок так себе: типично городское средство персональной мобильности. GPS, противоугонка, надежное крепления для смартфона, моторчик на 250 Вт прямо в задней втулке, углепластиковый ремень вместо цепи. Рассчитан на 25 км/час в режиме ассистента самому велосипедисту на ровной поверхности. Аккумулятора на 360 Вт-часов хватит на 50 км в режиме минимальной помощи мускулам седока.
Элегантная такая очень британская штучка:)
https://newatlas.com/bicycles/raleigh-one-smart-connected-ebike/
👍46💩189🔥3👎2
Дженсен Хуанг (а еще куча китайских стартапов и немножечко Илон Маск) не одинок в своих ожиданиях, что гуманоидные роботы, связанные с ними Physical AI и модели мира — это и есть настоящее будущее ИИ. На эту тему высказался и влиятельнейший в Долине миллиардер и венчанный капиталист Винод Хосла.
Он заявил, что как и все материальное роботы несколько медленней развиваются, чем сугубо цифровые продукты, так что Robotics will take a little longer, but I think we'll have the ChatGPT moment in the next two to three years — не так уж и долго ждать:)
Он полагает, что основной бизнес-моделью для широкого распространения бытовых роботов будет аренда, а не покупка; в таком случае они обойдутся в 300-400 долларов в месяц, доступную для многих домохозяйств цену. В итоге, "Almost everybody in the 2030s will have a humanoid robot at home" Ну, слово “каждый” в этом контексте относится явно не ко всему миру, но даже если для начала так пойдут дела лишь в США и Китае — все равно весь мир станет другим.
https://www.imaginepro.ai/blog/2025/7/robotics-to-have-chatgpt-moment-in-the-next-2-3-years-vinod-khosla
🔥44👍248👎3💩2
Не могу назвать это достижением ни с какой стороны - но и не впечатлиться не могу.
ВМФ Колумбии перехватил автономную безэкипажную подлодку длиной 15 метров и грузоподъемностью полторы тонны, к тому же снабженную терминалом Starlink. В момент задержания груза на судне не было, власти полагают, что картель просто проводил ходовые испытания своей новинки. Этот, так сказать, наркодрон двигался под самой поверхностью воды, снаружи оставалась только спутниковая антенна.
Как отмечают власти, находка демонстрирует evolution in the logistical capabilities of drug trafficking, which seeks to surpass traditional approaches through innovation. Да уж, инноваторы…
https://www.sofx.com/colombian-navy-captures-starlink-operated-narco-submarine/
😁73👍298👎2🔥1
Сильный результат в области интерфейсов “мозг - компьютер”, причем ключевое слово — неинвазивных.
У масковского Neuralink и ему подобных есть устойчивый хороший прогресс в области управления разными периферийными устройствами “силой мысли”, вот только для чтения “мысли” (а точнее — сигналов моторной коры головного мозга) приходится массивы электродов тем или иным способом вводить внутрь этого самого мозга. И это сильный блокер на пути сколь-нибудь массовых сценариев использования: то, на что вполне согласен парализованный человек, для большинства здоровых может оказаться неприемлемым.
И вот впервые удалось на основе электроэнцефалограммы в реальном времени управлять роборукой. Конечно же, с помощью ИИ моделей, интерпретирующих регистрируемую электрическую активность мозга. После сессии онлайновых тренировок модели удалось достичь 80% точности в движениях двумя пальцами и 60% — для управления тремя пальцами. Это, конечно, по-прежнему интерпретация активности моторной коры, а не мыслей — но зато без какого-либо вмешательства внутрь черепа.
Лиха беда начало: вдруг и дальше получится все лучше понимать активность мозга безо всяких нейрошунтов.

https://www.nature.com/articles/s41467-025-61064-x
49🔥35👍15🤬2
На вчерашнем кутюрном показе Iris van Herpen было (жило и дышало) живое платье из 125 миллионов живых океанских водорослей.

А если точнее 125 млн клеток Pyrocystis lunula (морские динофлагелляты, светящиеся при механическом воздействии).

Корсет + ультратонкая силиконовая сетка с каналами для водорослей; микрофлюидная система поддерживает водно-питательный раствор; давление задаёт мини-перистальтический насос; поддерживается постоянная температура.

Перед показом клеткам дали отдохнуть в темноте, а через 4–6 часов после показа вернули в лабораторные биореакторы. Дайте мне отдохнуть в темноте, а потом верните в биореактор.

Название коллекции от греческого — «создавать-вместе» — термин Донны Харауэй о ко-эволюции видов. Коллекция исследует симбиотические связи человека и океана — такой вот proof-of-concept по-настоящему живой материи.

Это, конечно, не для похода в магазин, а для условного Met Gala, так что ждем селебов в в окружении 125 миллионов живых океанских светящихся организмов (и боди-хоррор об этом же у A24).
43🔥19👏7👍5😁3💩1
Podcast No.76
Andrey Sebrant
-=Выпуск 79=-
Прошло полгода с прошлого эпизода, и я все же вспомнил про “Трёп” и решил записать сольный выпуск; он, по сути, основан на разных лекциях, которые приходилось читать последние месяцы, на самых мне интересных темах в этом канальчике, просто на разговорах с умными людьми. Тут и рынок труда, и образование, и роботы — все как я люблю:)

На странице подкаста - https://sebrant.chat/episode--2025
На разных платформах:
https://podcasts.apple.com/ru/podcast/sebrant-chatting-%D1%82%D1%80%D1%91%D0%BF-%D1%81%D0%B5%D0%B1%D1%80%D0%B0%D0%BD%D1%82%D0%B0/id1320623324?i=1000716215596
https://youtu.be/MBStMqbL3cE?si=ikgYrNEoEeVwsv9P
https://music.yandex.ru/album/6407298
https://podcast.ru/1320623324/e

И, по традиции, файл прямо здесь, чтоб не отходя от тележки слушать:) Не обращайте внимания на ошибку в метаданных файла :))
36👍23🔥9👏1💩1
Forwarded from АнтиБиотек
Первые испытания ИИ-препаратов на людях

Isomorphic Labs, дочерняя компания Alphabet, впервые заговорила о запуске клинических испытаний созданных ИИ лекарств. Об этом сообщил президент компании и коммерческий директор Google DeepMind Колин Мердок в интервью Fortune. По его словам, сотрудники офиса в лондонском Кингс-Кроссе уже сегодня работают вместе с ИИ над разработкой лекарств от рака — процесс, который совсем скоро перейдёт в стадию испытаний на людях.

«Следующая большая веха — это клинические испытания: начать вводить препараты людям. Мы сейчас нанимаем людей. Мы очень близко к этому», — отметил Мердок.


Isomorphic Labs была выделена из DeepMind в 2021 году и основана на прорыве AlphaFold — ИИ-системе, способной с высокой точностью предсказывать структуру белков. Впоследствии AlphaFold научился моделировать взаимодействие белков с другими молекулами, включая лекарства и ДНК, что резко повысило его полезность для фармацевтики и вдохновило на создание Isomorphic Labs.

В 2024 году, одновременно с релизом AlphaFold 3, компания подписала крупные исследовательские соглашения с фармгигантами Novartis и Eli Lilly, а в апреле 2025 года привлекла $600 млн в первом внешнем раунде инвестиций под руководством Thrive Capital.

Стратегия компании заключается в создании «платформы мирового уровня по разработке лекарств», где экспертиза в машинном обучении сочетается с опытом ветеранов фармы. В рамках сотрудничества с крупными компаниями Isomorphic Labs как помогает в текущих программах, так и разрабатывает собственные препараты — в первую очередь в сферах онкологии и иммунологии, с дальнейшей целью их лицензирования после ранних фаз клинических испытаний.

По словам Мердока, цель — не просто ускорить и удешевить процесс, но и увеличить вероятность успешного выхода лекарства на рынок. Сейчас вероятность успеха после начала клинических испытаний может составлять всего 10%, и Isomorphic хочет радикально повысить эти шансы.

«Мы хотим дойти до момента, когда можно будет просто нажать кнопку — и получить дизайн препарата от болезни. Всё — на базе этих потрясающих ИИ-инструментов», — подытожил Мердок.


@antibiotech
146🔥27👍14😁1