sfw
nsfw
26994
26994
Рейтинг:
322.36+6.02 за неделю
Постов: 593
Комментов: 15149
C нами с: 2013-12-31

Посты пользователя 26994

For that one gamer who still waits for Disco Elysium 2

Набег на 40000-ую страницу, DA RED GOES FASTA

Разработчики ИИ стали переходить на компактные ИИ-модели — они дешевле и экономичнее

Технологические гиганты и стартапы переходят на более компактные и эффективные модели искусственного интеллекта, стремясь сократить расходы и повысить производительность. Эти модели, в отличие от своих «старших братьев», таких как GPT-4, могут обучаться на меньшем объёме данных и специализируются на решении конкретных задач.
Microsoft, Google, Apple и стартапы, такие как Mistral, Anthropic и Cohere, всё чаще обращаются к малым и средним языковым моделям искусственного интеллекта. В отличие от больших моделей (LLM), таких как GPT-4 от OpenAI, которые используют более одного триллиона параметров и их разработка оценивается далеко за 100 миллионов долларов, компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов, при этом используя менее 10 миллиардов параметров.
Компания Microsoft, один из лидеров в области ИИ, представила семейство небольших моделей под названием Phi. По словам генерального директора компании Сатьи Наделлы (Satya Nadella), эти модели в 100 раз меньше бесплатной версии ChatGPT, но при этом справляются со многими задачами почти так же эффективно. Юсуф Мехди (Yusuf Mehdi), коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально, что побудило Microsoft искать более экономичные решения.
Другие технологические гиганты также не остались в стороне. Google, Apple, а также Mistral, Anthropic и Cohere выпустили свои версии малых и средних моделей. Apple, в частности, планирует использовать такие модели для запуска ИИ локально, непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.
Эксперты отмечают, что для многих задач, таких как обобщение документов или создание изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 + 2 не должны требоваться квадриллионы операций», — подчеркнул он.
Компании и потребители также ищут способы снизить затраты на эксплуатацию генеративных технологий ИИ. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы, если перевести всё в деньги, всего за одну шестую стоимости больших языковых моделей.
Интересно, что ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах, например, только в юридической отрасли.
Однако эксперты отмечают, что компании не собираются полностью отказываться от LLM. Например, Apple объявила об интеграции ChatGPT в Siri для выполнения сложных задач, а Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows. А такие компании как Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.
Переход к малым моделям происходит на фоне замедления прогресса в области больших публично доступных моделей искусственного интеллекта. Эксперты связывают это с нехваткой высококачественных новых данных для обучения, и в целом, указывают на новый и важный этап эволюции индустрии.
Источник:

Изготовлен последний сегмент зеркала для самого большого телескопа в истории Земли

Чрезвычайно большой телескоп Европейской Южной обсерватории (ESO ELT), строящийся в чилийской пустыне Атакама, стал на шаг ближе к завершению. Немецкая компания SCHOTT успешно доставила для обработки заготовку для последнего из 949 сегментов, заказанных для основного зеркала телескопа. При диаметре более 39 метров это зеркало станет самым большим когда-либо изготовленным для телескопа.
Источник изображений: ESO
Источник изображений: ESO
Чаша основного зеркала (M1) Чрезвычайно большого телескопа состоит из 798 шестиугольных сегментов, каждый толщиной около 5 см и шириной 1,5 м. Вместе они будут собирать столько света, что превысят возможности глаза человека в десятки миллионов раз. Для облегчения обслуживания и ремонта главного зеркала уже после его ввода в строй изготовлено дополнительно 133 сегмента. Сверх того, ESO закупила 18 запасных сегментов, в результате чего их общее количество достигло 949.
Оптическая система телескопа ELT будет состоять из пяти зеркал, где помимо главного зеркала M1 будет ещё четыре зеркала намного меньшего диаметра. Все зеркала уже отлиты и подготавливаются к работе.
,репост с 3DNEWS,новости,астрономия,наука

Отличный комментарий!

ОЧЕНЬ БОЛЬШОЙ телескоп йГ ЭКСТРЕМАЛЬНО БОЛЬШОЙ ТЕЛЕСКОП \у/( ЧРЕЗВЫЧАЙНО БОЛЬШОЙ ТЕЛЕСКОП ИГ ГНЕТУЩЕ КОЛОССАЛЬНЫЙ ТЕЛЕСКОП I I УМОПОМРАЧИТЕЛЬНО НЕОБЪЯТНЫЙ ТЕЛЕСКОП |	|
ТЕЛЕСКОП БЕЗЫСХОДНОСТИ I I ТЕЛЕСКОП КЙТАКЛИТНОВ I I ТЕЛЕСКОП ОПУСТОШЕНИЯ О ТРУБА КОШМАРОВ I I БЕСКОНЕЧНЫЙ ТЕЛЕСКОП О ОКОНЧАТЕЛЬНЫЙ

Ну чо, ну теперь-то с COBOLа слезете, банкиры?

The living computing закрывается и Архив Интернета не смог его защитить от патентных троллей/крючкотворцев/буквоедов/корпоративных юристов, которые сами не поняли что защищают и от кого (нужное подчеркнуть)
Даже не знал о существовании музея живого древнего компьютерного железа. Но нет, для тех, для кого авторское право - это сорта Микки Мауса за разные объекты считать, это важно - снятую с производства красоту вроде pdp-11 защищать от её же ценителей
Да, кстати, основателя музея звали Paul Allen

"The Perfect Girl", но 4 характеристики конфликтуют по кругу