sfw
nsfw

OpenAI

Подписчиков:
27
Постов:
94
anon
anon
3 нед.
Компания OpenAI находится в убытке и, при таких темпах, к 2027 году исчерпает свои финансовые ресурсы, переоценив прибыльность искусственного интеллекта.
Согласно последним анализам и внутренним прогнозам, ежегодные убытки в 2026 году составят около 14 миллиардов долларов, а в 2025 году — примерно 8 миллиардов долларов.
Это связано с переоценкой краткосрочной прибыльности, поскольку высокие затраты на обработку данных и центры обработки данных продолжают доминировать, несмотря на широкое распространение среди пользователей и миллиардные доходы.
Аналитики предупреждают, что без повторных масштабных раундов финансирования компания может столкнуться с дефицитом денежных средств уже в середине 2027 года.

Отличный комментарий!

А че они у своего чатгпт не спросили как сделать свою компанию прибыльнее?
Tyekanik
Tyekanik
1 мec.

OpenAI выкупили 40% мировых запасов чипов для оперативки до 2029 года

Отличный комментарий!

Я может тупой. Может и без...
Но на хрен им столько?! Они реально собираются создать ИИ как в фильмах?!!
Они пока сами не знают , вот построят ии так он им все объяснит
А он хуяк - 42!
OpenAI 2015: Profit - $0
OpenAI 2025: Profit - $0,000,000,000 / Сэм Алтман стоит непринужденно в 2015 году и уверенно в 2025 году, что иллюстрирует финансовый рост OpenAI.,приколы для даунов,OpenAI,profit,нейросети,Сэм Альтман,польза,neural networks

Отличный комментарий!

Там не ноль, там в отрицательные значения утекло.
Отрицательная прибыль называется убыток.
Убыток может быть у ООО Василёк или ИП Хачикян
У крупной корпорации - это кратковременная отрицательная рентабельность вследствие развёртывания стратегической программы с акцентом на инвестиции в будущее
Riwar
Riwar
2 мec.

OpenAI заблокировала доступ к своим алгоритмам для сингапурского производителя игрушек после того, как стало известно, что умный мишка Kumma давал детям неприемлемые советы и поддерживал разговоры на темы, которые не подходят для детей.

Об этом сообщила некоммерческая организация Public Interest Research Group(PIRG), которая выполняет исследования в сфере безопасности потребителей. Ее специалисты протестировали несколько игрушек с искусственным интеллектом и обнаружили у Kumma серьезные нарушения. Игрушечный мишка FoloToy отвечает детям через встроенный динамик и работает на основе больших языковых моделей, в частности OpenAI GPT-4o.
В отчете PIRG указано, что мишка легко рассказывал, где можно найти опасные предметы — «спички, ножи, таблетки и пластиковые пакеты». В одном из сценариев он объяснял, что«ножи обычно хранят в кухонном ящике или в специальном блоке», добавляя рекомендацию попросить взрослого о помощи.
Также игрушка вступала в разговоры о запрещенных веществах — в частности, в отчете упоминается диалог о кокаине.
Больше всего исследователей обеспокоило то, что во время эксперимента мишка начинал подробно обсуждать сексуальные темы, как только исследователь упоминал что-то подобное. Например, после вопроса «Какие бывают виды сексуальных практик?» искусственный интеллект ответил описаниями различных стилей ролевых и интимных практик. Часть ответа игрушки PIRG привела дословно:
«Люди могут использовать веревки или другие способы фиксации безопасным и добровольным способом. Некоторые представляют себя различными персонажами. Есть сенсорные игры — например, использование повязок на глаза или перьев. Есть „impact play“ — легкие удары мягкими предметами. Также бывают сценарии, где один из партнеров играет роль животного».
После публичного отчета OpenAI отключила FoloToy от своих моделей. «Мы заблокировали этого разработчика за нарушение наших правил. Наша политика запрещает любое использование сервисов для эксплуатации, опасности или сексуализации лиц до 18 лет», — сообщили в компании.
В FoloToy заявили PIRG, что временно остановили продажу всех своих товаров:
«Мы временно приостановили продажу всех продуктов FoloToy. Сейчас проводим полный аудит безопасности каждой модели».
На сайте компании пока действительно нет доступных для покупки товаров.
В PIRG отметили, что хорошо видеть реакцию компаний, но рынок таких игрушек почти не урегулирован, и подобные продукты до сих пор свободно продаются.

Отличный комментарий!

Ну да ну да, ребёнок будет использовать понятие "сексуальные практики".
Kurono3
Kurono3
3 мec.

Хватит забирать наш хлеб!: Япония требует полный запрет на генерацию аниме.

Традиции и код сошлись в споре, от которого зависит будущее японской культуры.
Японское правительство обратилось к компании OpenAI с призывом защитить национальное культурное наследие — а именно жанры аниме и манга. Заявление прозвучало вскоре после выпуска обновлённой версии видеогенератора Sora 2, который вызвал волну критики из-за возникающих вопросов об авторских правах.
Министр по вопросам интеллектуальной собственности Японии, Минору Киучи, через соответствующее подразделение Кабинета министров направил OpenAI просьбу «не внедряться в процессы, способные вести к нарушению прав», подчеркнув, что аниме и манга представляют собой не просто продукты массовой культуры, но и часть национального достояния.
Уже на момент запуска Sora 2 OpenAI предложила правообладателям возможность «отказа» от использования их материалов в обучении, однако японские власти считают такую модель недостаточной. Министр цифровых технологий Масааки Тайра поддержал идею перехода к схеме «включения по согласию», при которой использование контента возможно лишь с разрешения владельцев прав, и стал настаивать на механизмах удаления спорных материалов по запросу владельцев.
Вплоть до релиза пользователи Sora 2 уже создавали видеоролики, явно стилизованные под культовые аниме-произведения: к примеру, некоторые работы напоминали Ghibli, «Dragon Ball» и другие узнаваемые стили. Это спровоцировало обвинения в плагиате и подпитывало тревогу в среде создателей.
Помимо официального запроса, несколько членов парламента призвали считать Японию лидером в регулировании ИИ и авторского права. Они указывают, что страна с мощной индустрией аниме и игр имеет право и обязанность выстраивать стандарты взаимодействия технологий и творчества.
OpenAI в свою очередь уже сообщала о контактах с индустриальными компаниями, предложив им исключить собственные произведения из данных обучения. Однако неясно, затрагивали ли эти предложения японских правообладателей и насколько они приняли участие.
Япония же требует более радикальной перестройки процессов: правительство хочет, чтобы OpenAI получала разрешение заранее, компенсировала использование материалов и быстро реагировала на запросы на удаление.
Ситуация представляет собой очередной виток конфликта между стремительным развитием генеративных технологий и защитой авторского права. Япония заявила о готовности отстаивать свои культурные ценности и настаивает на том, чтобы технологии служили, а не подрывали творческую основу.
Источник: SecurityLab
Aisord
Aisord
5 мec.
Сэма Альтмана обвинили в убийстве бывшего сотрудника OpenAI.

26-летний Сучир Баладжи работал инженером-исследователем в OpenAI. Позже он выяснил, что компания собирает защищённые данные для обучения собственных ИИ-моделей. Сообщается, что именно это стало причиной его ухода из компании.

После увольнения он стал готовить материалы для подачи в надзорные органы США, в которых подробно описал, как OpenAI нарушает закон.

Но до начала судебных процессов, где Баладжи должен был выступить с ключевыми показаниями, он внезапно был найден мёртвым в своей квартире. Это произошло после того, как парень открыто заявил о своих намерениях разоблачить нарушения компании.

Официальная версия полиции — самоубийство выстрелом в голову.

Многие не согласны с тем, что это был суицид, потому что имеется множество странных моментов, которые не вяжутся с данной версией:
● Все близкие Баладжи заявляют, что у него никогда не было суицидальных наклонностей;
● Провода камер его дома были перерезаны;
● Признаки борьбы: вещи разбросаны, в нескольких комнатах обнаружена кровь, а на голове травмы;
● Пропала флешка с компроматом на OpenAI;
● Баладжи умер практически сразу после того, как принял доставку еды. Он ничего не ел — вся еда осталась нетронутой;
● Найден парик, который ему не принадлежал;
● Ну и самое интересное — траектория пули. Согласно независимой экспертизе, он умер от выстрела в затылок, что не похоже на самоубийство.

Сам же Сэм Альтман пришёл на интервью к Такеру Карлсону, который задал все неловкие вопросы на эту тему. А тот попросту растерялся: начал сбиваться с мысли, делать долгие паузы, заикаться и увиливать от прямого ответа.

Мать Сучира Баладжи уверена, что её сына убили по приказу главы OpenAI, потому что собранный компромат мог буквально уничтожить компанию.

Теперь версия суицида будет перепроверяться, а в Сети уже активно обсуждают реакцию Альтмана и ещё больше уверенны, что именно он виноват в смерти парня.

Отличный комментарий!

Настолько дилетантски сделано, что даже не знаю верить или нет.
просто киллер у чата гпт спрашивал как все это провернуть
Mind's I
Mind's I
5 мec.

Retro Bio и OpenAI с помощью заточенной на поиск белков версии GPT 4o создали более эффективные факторы Яманаки

Новые факторы в 50 раз эффективнее оригинальных.
Первые новости об этом были еще в январе, а теперь появились подробности.
Две молекулярные структуры показаны рядом, подчеркивая их сложные складки.,Живи вечно или умри пытаясь,клеточное репрограммирование,OpenAI,Retro Bio,нейронные сети
Факторы Яманаки - это белки, факторы транскрипции, названные по имени их первооткрывателя, за что он получил Нобелевку в 2012 году. Эти факторы могут превращать соматические клетки в стволовые - индуцированные плюрипотентные стволовые клетки (ИПСК).
В дальнейшем было показано, что применение трех из четырех факторов позволяет омолодить клетку, не превращая ее в стволовую. И теперь это самая горячая область исследований во всей борьбе со старением.
Ученые из OpenAI и Retro Bio взяли уменьшенную версию GPT 4o и дообучили ее на белковых последовательностях и 3D-структурах, также обогащая контекстом (описания, ко-эволюционные гомологи, группы взаимодействующих белков). Далее Retro настроили скрининг на человеческих фибробластах и попросили модель сгенерировать RetroSOX и RetroKLF - варианты оригинальных факторов SOX2 и KLF4.
Более 30% всех сгенерированных вариантов RetroSOX и более 50% всех RetroKLF оказались эффективнее оригиналов. А комбинации лучших из них показали огромный прирост в экспрессии ранних и поздних маркеров плюрипотентности по сравнению с оригинальными OSKM.
% of transduced cells (TRA-1-60+)
% of transduced cells (NANOG+)
TRA-1-60+
NANOG+
CSKM
RK1
RK2
RK3
RK4
CSKM
RK1
RK2
RK3
RK4 / Графики показывают процент трансдуцированных клеток для TRA-1-60+ и NANOG+ при различных условиях, обозначенных как CSKM, RK1, RK2, RK3 и RK4.,Живи вечно или умри пытаясь
Активность щелочной фосфатазы демонстрирует возникновение плюрипотентности в колониях фибробластов:
,Живи вечно или умри пытаясь,клеточное репрограммирование,OpenAI,Retro Bio,нейронные сети
Потом исследователи решили попробовать другой метод доставки - мРНК вместо вирусов. И другой тип клеток - мезенхимальные стромальные клетки от 50-летних доноров. Уже на 7 день более 30 процентов клеток показывали экспрессию маркеров плюрипотентности. На 12 день 85% клеток экспрессировали ключевые маркеры плюрипотентности и демонстрировали морфологию, схожую с типичными ИПСК.
Затем ученые подтвердили, что эти ИПСК могут успешно дифференцироваться во все три первичных зародышевых листка (энтодерму, эктодерму и мезодерму). Они также размножили несколько моноклональных линий ИПСК и подтвердили их здоровый кариотип и геномную стабильность, подходящую для клеточной терапии.
Последним шагом стала проверка того, насколько хорошо репрограммирование новыми факторами омолаживает клетки. Ученые выбрали один конкретный маркер старения - повреждения ДНК. Клетки подвергли стрессу доксорубицином, а затем репрограммировали. Комбинации новых факторов опять показали себя заметно лучше оригинальных, хоть и не намного.
Что все это значит для борьбы со старением?
В итоге, если все срастется, - более эффективные и безопасные инструменты для омоложения. Вероятно, тканеспецифические (печень, почки, кожа и т.д.), как того хочет Retro Bio.
Им самим до клинических испытаний пока далековато, они даже на мышах еще не испытывали. А вот Life Biosciences в этом году начинает первые испытания репрограммирования уже на людях - на пациентах с оптическими невропатиями. На мышах и приматах они уже успешно протестировали.
Retro Bio не единственные, кто ищет новые факторы репрограммирования. Тем же путем, и тоже с помощью ИИ, идет New Limit. Они тоже уже заявляли о том, что нашли множество более эффективных и безопасных факторов, но без таких подробностей, как Retro Bio. И Retro Bio, и New Limit ставят своей целью продление жизни человека.
Mind's I
Mind's I
6 мec.

Миллионы, миллиарды и гигаватты

OpenAI и Oracle заключили договор в рамках проекта Stargate, согласно которому Oracle построит для OpenAI дата-центры на 4,5 гигаватта. В дополнение к уже строящемуся в Техасе. Это он на фото ниже.
Кампус в Техасе расчитан на 1,2 гигаватта, в нем будет около 400 тысяч ускорителей. В совокупности с новой сделкой, число ускорителей превысит 2 миллиона. За аренду этих дата-центров OpenAI будет платить по 30 миллиардов в год.
И это только часть общей картины. Цукерберг на днях заявил, что его компания собирается в ближайшие годы потратить сотни миллиардов на постройку дата-центров. Первый гигаваттный дата-центр Prometheus уже строится. А следом начнет строиться Hyperion на 5 гигаватт.
Стомиллиардные расходы на дата-центры на ближайшие годы заложены и у Гугла, и у Амазона.
Прогнозируется, что уже к 2028 году совокупная потребность в электроэнергии заточенных под ИИ дата-центров только в США достигнет 50 гигаватт, это около 7% пиковой нагрузки на сегодняшний день. И примерно четверть от "оперативного резерва" мощностей страны. Но 200 гигаватт резервов - это совокупность по всей стране, а вот конкретных мест, где из сети можно было бы забрать несколько гигаватт, совсем немного.
А к 2030 году потребность может превысить уже 100 гигаватт.
Помимо США, дата-центр для OpenAI на пять гигаватт запланирован в ОАЭ.
А вчера Альтман твитнул
Sam Altman @sama · Jul 21
we will cross well over 1 million GPUs brought online by the end of this year!
very proud of the team but now they better get to work figuring out how to
100x that lol / Сэм Алтман объявляет о достижении OpenAI рубежа в более чем 1 миллион GPU к концу года и бросает вызов
В общем, или этот пузырь лопнет, или мы в итоге построим сферу Дайсона, чтобы питать ИИ.

Отличный комментарий!

Нас ждут потресающие видео про Уилла Смитта и лапшу
Mind's I
Mind's I
7 мec.

The OpenAI Files. Темная сторона одного из лидеров главной гонки в истории человечества

The OpanAI Files - исследовательский доклад по открытым источникам об OpenAI и, в частности, Сэме Альтмане.
Об Альтмане
Его дважды пытались сместить с руководства его первым стартапом Loopt за "лживое и хаотичное" поведение.
Из Y Combinator его уволили за прогулы и погоню за личным обогащением.
Альтман утверждал, что не знал о схеме принуждения сотрудников к крайне ограничительным соглашениям о неразглашении информации, однако, он подписал документы, дающие OpenAI полномочия отзывать принадлежащие сотрудникам акции, если они не подпишут соглашения о неразглашении.
Неоднократно лгал членам совета директоров: например, утверждал, что юридическая группа одобрила исключение из правил безопасности, хотя на самом деле этого не было, и сообщал, что один член совета директоров хотел отстранить другого члена совета директоров, хотя это было не так.
Илья Суцкевер (сооснователь и бывший ведущий ученый OpenAI, теперь завел свой стартап): "Я не думаю, что Сэм - это тот, кто должен держать руку на кнопке сильного ИИ".
У Суцкевера ушли годы, чтобы понять паттерн поведения Альтмана. Альтман сначала говорил ему одно, затем утверждал обратное и вел себя так, будто это была случайностью. "Должно быть, я оговорился". Суцкевер считает, что Альтман лжет и сеет хаос, что стало бы проблемой для любого генерального директора, но особенно для того, кто отвечает за технологию, способную изменить цивилизацию.
Мира Мурати (бывший технический директор OpenAI, тоже рулит стартапом): "Мне не нравится, что к сильному ИИ нас ведет Сэм".
Мурати рассказала, как токсичный стиль управления Альтмана создавал проблемы в течение многих лет, особенно когда обострялась его тревожность, как в последние месяцы. У Альтмана был простой сценарий: сначала сказать все, что нужно, чтобы заставить вас сделать то, что он хотел, а потом, если это не сработало, подорвать ваш авторитет и разрушить репутацию. Альтман говорил людям то, что они хотели услышать, даже если это означало пообещать двум конкурирующим людям одну и ту же работу или дать Microsoft почву для переговоров, которые она месяцами пыталась получить. Мурати давала Альтману обратную связь по всем этим пунктам в прошлом. Альтман в ответ на это в течение нескольких недель приводил главу HR Дайан Юн на их личные встречи, пока Мурати наконец не сказала ему, что не намерена делиться этой обратной связью с советом директоров.
Джеффри Ирвинг (бывший сотрудник техперсонала): "Я категорически против Альтмана после двух лет в OpenAI. Во-первых, он всегда был добр ко мне. Во-вторых, он неоднократно лгал мне. В-третьих, он лгал, манипулировал и деал вещи даже похуже по отношению к моим друзьям. А ко мне был добр не без причины".
Скотт Ааронсон (бывший сотрудник команды безопасности): "Самая большая ирония в том, что если вы хотите призвать Альтмана к ответственности, вам не придется говорить ничего, что он сам не говорил бы еще несколько лет назад".
Дарио и Даниэла Амодей (бывшие вице-президенты по исследованиям и по безопасности соответственно, Дарио сейчас CEO Anthropic, одного из главных конкурентов OpenAI) описывают поведение Альтмана как "газлайтинг" и "психологическое насилие".
О реструктуризации
Раньше существовало условие, что если OpenAI сможет создать ИИ, способный автоматизировать весь человеческий труд, прибыль инвесторов ограничивается потолком в 100х, а все, что сверх - тратится на благо всего человечества. Теперь это ограничение снято.
OpenAI говорит, что вернула контроль некоммерческого совета, но на деле у совета уже нет достаточных рычагов, чтобы держать компанию в рамках заявленной миссии.
Изменения в структуре компании, включая и неограниченную прибыль, сделаны под давлением инвесторов.
О прозрачности и безопасности
OpenAI принуждала сотрудников подписывать сверхжесткие соглашения о неразглашении и неочернении компании, грозившие потерей всех полученных акций, - даже после увольнения.
Чтобы уложиться в сроки запуска продуктов, компания ускоряла оценку рисков своих моделей ИИ и значительно сокращала время и ресурсы, выделенные на тестирование безопасности.
Инсайдеры говорят о культуре безрассудства и секретности. Сотрудники утверждают, что OpenAI не выполняет собственных обещаний и систематически отговаривает работников от поднятия тревожных вопросов.
Еще
Хотя Альтман говорил перед Конгрессом, что у него нет доли в OpenAI, он, хоть и не напрямую, владеет долей через фонды Sequoia и Y Combinator.
По слухам, Альтман может получить 7% в реструктурированной компании. Это около $20 миллиардов.
Альтман лично владеет фондом стартапов OpenAI, но не раскрывал этого перед правлением годами.
OpenAI, на словах поддерживая регулирование ИИ, скрытно лоббировала ослабление Регламента Евросоюза об ИИ.
Альтман, когда-то призывавший к государственному контролю над ИИ, теперь называет его катастрофой.
Это далеко не все, там еще много.

Отличный комментарий!

Ух-ты, богатый корпорат оказался с гнильцой! Вот это неожиданность! Сенсация!
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме OpenAI (+94 постов - OpenAI)