MegaKaloyan
Well-Known Member
Anthropic току-що случайно изпусна най-опасния AI модел, който човечеството някога е създавало.
Буквално оставиха 3000 строго секретни вътрешни документа в публично достъпна база данни. Без криптиране. Без пароли. Без никакъв контрол. Просто… широко отворени за целия свят.
Един изследовател по сигурността ги откри, преди самите Anthropic да разберат.
Вътре сред документите имаше чернова на блог пост, описващ модела „Claude Mythos“.
Собствените им вътрешни думи гласят: Mythos е „в момента далеч пред всеки друг AI модел по кибер възможности“ и ще предизвика „цяла вълна от модели, които ще експлоатират уязвимости по начин, който тотално ще надмине способностите на защитниците“.
Това е компанията, която го създаде… и самата тя предупреждава колко смъртоносно е нейното творение.
Mythos принадлежи към съвсем ново, свръхмощно ниво на модели – „Capybara“. По-голям, по-умен и драстично по-опасен от всичко, което Anthropic са пускали досега. Резултатите му в програмирането, разсъжденията и кибератаките са смазващо по-високи от техния досегашен най-добър модел.
Реакцията на пазара беше жестока и мигновена:
CrowdStrike се срина с 7%. Palo Alto Networks – с 6%. Zscaler – с 5%. Okta, SentinelOne, Fortinet – всички се сгромолясаха. Глобалният Cybersecurity ETF падна до най-ниското си ниво от ноември 2023 година.
Милиарди долари пазарна стойност се изпариха за една-единствена търговска сесия – заради една чернова, която никога не е трябвало да вижда бял свят.
Но тук започва истинският абсурд…
Anthropic е компанията, която се представя за най-отговорната AI лаборатория на планетата.
Същата, която отказа да даде Claude на Пентагона без строги ограничения. Същата, която беше включена в черния списък на администрацията на Тръмп, защото била „прекалено предпазлива“. Дори съдиха американското правителство заради това.
Правителството на САЩ наказа Anthropic точно защото са били прекалено внимателни с безопасността на изкуствения интелект.
А само три седмици по-късно… същата тази компания случайно излага на показ най-опасния си модел, защото някой е объркал настройките на една обикновена система за управление на съдържание.
Не могат да защитят дори база данни на нивото на WordPress.
Но строят изкуствен интелект, който може самостоятелно да открива и експлоатира zero-day уязвимости със скорост, недостижима за човека.
В изтеклите файлове има още нещо:
Подробности за ексклузивен, само с покани, retreat за изпълнителни директори в разкошно имение от 18. век в английската провинция. Дарио Амоdei лично присъства. Целта? Да продадат Mythos на най-големите корпоративни гиганти в Европа.
Планът им: Създай най-опасното кибероръжие в историята на изкуствения интелект, покани милиардери в замък и им го продай… а целия план дръж в незащитена публична папка.
Цялата индустрия за киберсигурност е изградена върху това да каталогизира известните заплахи.
Mythos намира неизвестните заплахи по-бързо, отколкото хората изобщо могат да реагират.
Това е потенциално унищожение за цял сектор.
А има и второ изтичане:
Изтекъл инвестиционен deck на Coatue разкри, че Anthropic ще загуби 14 милиарда долара тази година при 18 милиарда приходи. Въпреки това Coatue прогнозира, че компанията ще струва 2 ТРИЛИОНА долара до 2030 година и е заложила 30 милиарда долара на тази визия.
Polymarket отвори залози на живо кога ще излезе Mythos. Търговците му дават 45% шанс до 30 юни.
Същата седмица OpenAI приключи предварителното обучение на своя frontier модел с кодово име „Spud“. Двете компании вече тичат в надпревара кой ще пусне пръв – преди големите IPO-та по-късно тази година.
А най-страшното от всичко:
Китайски държавни хакери вече използваха по-слабия Claude Code, за да инфилтрират автономно над 30 организации – включително банки и правителствени агенции. Това беше по-слабият модел.
Mythos е драматично по-мощен.
Реакцията на Anthropic след като изтекоха 3000 поверителни документа?
„Човешка грешка в конфигурацията на системата ни за управление на съдържание.“
Компанията, която най-силно предупреждава света за рисковете от AI, току-що показа на практика точно защо всички трябва да се страхуваме.
Не заради това, което AI може да направи в бъдеще. А защото хората, които го създават, не могат дори да си заключат собствените файлове.

Буквално оставиха 3000 строго секретни вътрешни документа в публично достъпна база данни. Без криптиране. Без пароли. Без никакъв контрол. Просто… широко отворени за целия свят.
Един изследовател по сигурността ги откри, преди самите Anthropic да разберат.
Вътре сред документите имаше чернова на блог пост, описващ модела „Claude Mythos“.
Собствените им вътрешни думи гласят: Mythos е „в момента далеч пред всеки друг AI модел по кибер възможности“ и ще предизвика „цяла вълна от модели, които ще експлоатират уязвимости по начин, който тотално ще надмине способностите на защитниците“.
Това е компанията, която го създаде… и самата тя предупреждава колко смъртоносно е нейното творение.
Mythos принадлежи към съвсем ново, свръхмощно ниво на модели – „Capybara“. По-голям, по-умен и драстично по-опасен от всичко, което Anthropic са пускали досега. Резултатите му в програмирането, разсъжденията и кибератаките са смазващо по-високи от техния досегашен най-добър модел.
Реакцията на пазара беше жестока и мигновена:
CrowdStrike се срина с 7%. Palo Alto Networks – с 6%. Zscaler – с 5%. Okta, SentinelOne, Fortinet – всички се сгромолясаха. Глобалният Cybersecurity ETF падна до най-ниското си ниво от ноември 2023 година.
Милиарди долари пазарна стойност се изпариха за една-единствена търговска сесия – заради една чернова, която никога не е трябвало да вижда бял свят.
Но тук започва истинският абсурд…
Anthropic е компанията, която се представя за най-отговорната AI лаборатория на планетата.
Същата, която отказа да даде Claude на Пентагона без строги ограничения. Същата, която беше включена в черния списък на администрацията на Тръмп, защото била „прекалено предпазлива“. Дори съдиха американското правителство заради това.
Правителството на САЩ наказа Anthropic точно защото са били прекалено внимателни с безопасността на изкуствения интелект.
А само три седмици по-късно… същата тази компания случайно излага на показ най-опасния си модел, защото някой е объркал настройките на една обикновена система за управление на съдържание.
Не могат да защитят дори база данни на нивото на WordPress.
Но строят изкуствен интелект, който може самостоятелно да открива и експлоатира zero-day уязвимости със скорост, недостижима за човека.
В изтеклите файлове има още нещо:
Подробности за ексклузивен, само с покани, retreat за изпълнителни директори в разкошно имение от 18. век в английската провинция. Дарио Амоdei лично присъства. Целта? Да продадат Mythos на най-големите корпоративни гиганти в Европа.
Планът им: Създай най-опасното кибероръжие в историята на изкуствения интелект, покани милиардери в замък и им го продай… а целия план дръж в незащитена публична папка.
Цялата индустрия за киберсигурност е изградена върху това да каталогизира известните заплахи.
Mythos намира неизвестните заплахи по-бързо, отколкото хората изобщо могат да реагират.
Това е потенциално унищожение за цял сектор.
А има и второ изтичане:
Изтекъл инвестиционен deck на Coatue разкри, че Anthropic ще загуби 14 милиарда долара тази година при 18 милиарда приходи. Въпреки това Coatue прогнозира, че компанията ще струва 2 ТРИЛИОНА долара до 2030 година и е заложила 30 милиарда долара на тази визия.
Polymarket отвори залози на живо кога ще излезе Mythos. Търговците му дават 45% шанс до 30 юни.
Същата седмица OpenAI приключи предварителното обучение на своя frontier модел с кодово име „Spud“. Двете компании вече тичат в надпревара кой ще пусне пръв – преди големите IPO-та по-късно тази година.
А най-страшното от всичко:
Китайски държавни хакери вече използваха по-слабия Claude Code, за да инфилтрират автономно над 30 организации – включително банки и правителствени агенции. Това беше по-слабият модел.
Mythos е драматично по-мощен.
Реакцията на Anthropic след като изтекоха 3000 поверителни документа?
„Човешка грешка в конфигурацията на системата ни за управление на съдържание.“
Компанията, която най-силно предупреждава света за рисковете от AI, току-що показа на практика точно защо всички трябва да се страхуваме.
Не заради това, което AI може да направи в бъдеще. А защото хората, които го създават, не могат дори да си заключат собствените файлове.
