Anthropic току-що "случайно изпусна" най-опасния AI модел

Долнопробната част от интернета шерна "leak" че било имало такъв таен и супермощен нов модел Mythos.
Това отделно от сорса на Клод Код.

... Обаче досега никой освен Станимир не е имал възможността да го пробва тоя Митос 🤭

Мммм, надценяваш го. Според мен досега е цъкал с някой wrapper, който отдолу вика Sonnet или Opus, но вечера вероятно е пробвал Claude Code мислейки го за отделен модел.
 
Мммм, надценяваш го. Според мен досега е цъкал с някой wrapper, който отдолу вика Sonnet или Opus, но вечера вероятно е пробвал Claude Code мислейки го за отделен модел.
присмял се хърбел на щърбел..... само да вметна , че @Станимир И е 78678673284787498327 пъти по свестен от теб... то всъщност теб кой те бръсне за слива.... Със Станимир мога да си говоря с часове и дни без да ми писне защото не се държи надменно като теб и е много земен човек. Ти говориш на индокитайскосингапуроиндонезийски език и смяташ, че някой те разбира кво пишеш.... или се опитваш да се направиш на много вещ по всичкология , а дефакто нищо незнаеш. Хвалиш се с печалбите си и ти ръкопляскат все едно си открил топлата вода... Те такива хора като теб са ми отвратителни. Ти освен на тема WP и кодене с Ai , друго може ли да водиш комуникация? Изключително глупав човек си ....
 
Долнопробната част от интернета шерна "leak" че било имало такъв таен и супермощен нов модел Mythos.
Това отделно от сорса на Клод Код.

... Обаче досега никой освен Станимир не е имал възможността да го пробва тоя Митос 🤭

Мойто момче, много хляб има да ядеш до де стигнеш някой като мен, имал съм достъп до Mythos, но не съм го ползвал, какво трябва да говоря с теб или пиша, ти си някакъв отчаян от живота човек като @metaverse , нямам желание да общувам с хора като вас, това е много мръсно за душата.
 
присмял се хърбел на щърбел..... само да вметна , че @Станимир И е 78678673284787498327 пъти по свестен от теб... то всъщност теб кой те бръсне за слива.... Със Станимир мога да си говоря с часове и дни без да ми писне защото не се държи надменно като теб и е много земен човек. Ти говориш на индокитайскосингапуроиндонезийски език и смяташ, че някой те разбира кво пишеш.... или се опитваш да се направиш на много вещ по всичкология , а дефакто нищо незнаеш. Хвалиш се с печалбите си и ти ръкопляскат все едно си открил топлата вода... Те такива хора като теб са ми отвратителни. Ти освен на тема WP и кодене с Ai , друго може ли да водиш комуникация? Изключително глупав човек си ....

Принципно избягвам да общувам със всеки, просто защото на скоро се запознах с един хейтър от тук на живо, той дори не разбра, че съм аз, трябва да ти кажа, че тези като @metaverse и @contra още живеят при техните, перат им мръсните гащи и дори и ток не плащат, такова им е държанието защото не са излизали далеч в живота, това рефлектира над държанието им към другите.
 
Добре, те хубаво са копирали кода на claude code, но в крайна сметка абонамента нали се плаща за да им ползваш мощностите.

Това в бизнеса се казва, маркетплейс, тук обаче е жетончета, просто масата хора са наивници, Claude не искам да ти продава кода, иска да ти го подари, иска да ти продава важното нещо, а това е инфраструктура, тяхната мощност, искат да се разпространят, ето че някой е разбрал това, но буквално едва 5% от хората разбират, никой не видя как за кратко време избухнаха една камара копия "случайно", няма случайности само илюзия за такива. Корпурация която отказва на държави, "случайно" изпуска кода си, просто хората масово са доста посредствен както се вижда, особено в тази сфера, преди дни един ми казва, аз написах бек-хенда на приложението си през gemini, може да погледнеш дали е добре, какво да се каже, тези които знаят как се прави нещо, ще станат още по-платени, а масата хваща вълната това е новата вълна, като гледам четвъртата поред, сега е за AI. Малко ще изкарат от това смисъл да кажем 1-2% , другите ще мажат и продават курсове как се работи с AI.

Поздрави.
 
Добре, те хубаво са копирали кода на claude code, но в крайна сметка абонамента нали се плаща за да им ползваш мощностите.

Късо и не технически обяснено - изпуснали са цялата „мозъчна“ част на Claude Code: как агентът работи, как използва инструменти, как помни неща, как координира задачи

И други АИ агенти кодират и тихичко може да интегрират някакви практики които смята за добри уж Claudе Code се води лидерът в кодирането...

ПП Трябва ти само видео карта за локален вайб кодинг има достатъчно опен сорс агенти които са достатъчно добри... Ще хвана да пусна една тема малко по нататък ако имате интерес ...
 
@coolice даже става и с по "дървени" карти :) аз подкарах на един сървър с 272GB RAM и 3 броя Tesla P40 и съм доволен от скороста с която работят моделите.
Избрах тези карти защото всяка е с 24GB VRAM и бяха на добра цена за тестване на идеята :) и всички модели се събират във VRAM-a на картите.
 
@coolice даже става и с по "дървени" карти :) аз подкарах на един сървър с 272GB RAM и 3 броя Tesla P40 и съм доволен от скороста с която работят моделите.
Избрах тези карти защото всяка е с 24GB VRAM и бяха на добра цена за тестване на идеята :) и всички модели се събират във VRAM-a на картите.

Това мъчим и ние тук с едни хора, но не е същото, дори има външна фирма която ще разработва на база claude логиката цяло решение тип vps с панел. Ще видим, ако се получи, ще пиша тук за проекта, ако някой иска, но то вече има много като гледам.



Поздрави.
 
Това мъчим и ние тук с едни хора, но не е същото, дори има външна фирма която ще разработва на база claude логиката цяло решение тип vps с панел. Ще видим, ако се получи, ще пиша тук за проекта, ако някой иска, но то вече има много като гледам.



Поздрави.
Моето е за лични цели/облаги а не комерсиално за продажба на услуги на клиенти (на този етап).
 
@coolice даже става и с по "дървени" карти :) аз подкарах на един сървър с 272GB RAM и 3 броя Tesla P40 и съм доволен от скороста с която работят моделите.
Избрах тези карти защото всяка е с 24GB VRAM и бяха на добра цена за тестване на идеята :) и всички модели се събират във VRAM-a на картите.

Ако не е тайна — колко ти излезе този сетъп, защото и на втора ръка в момента цените нон-стоп играят? И какви модели рънваш?

Аз доста по-скромно го раздавам, но се оказа, че старото ми гейминг лаптопче става за лек кодинг — Nvidia 4060 8GB и 32 GB RAM. Чудех се дали да не ги ъпгрейдна до 64, но като видях как са надули цените и на RAM-а за лаптоп (x5), си викам: ще почакам....

Като модели съм пробвал qwen2.5-coder 7b, qwen3-coder 30b MoE (този тръгна добре, защото въпреки че е голям, заради начина, по който се зареждат параметрите) и deepseek-coder 2.5 16b lite q4 компресия...

Леките ми впечатления: ако зададеш точно какво искаш да промени, и трите се справиха добре. Ако само опиша какво искам на bash... qwen2.5-coder 7b сътвори същото като deepseek-coder 2.5 16b, а qwen3-coder 30b отиде малко above and beyond — добави опционален logging в скрипта и крон командата, без да съм го питал :)

Нямах време да си играя с повече модели и езици, практически ползвам bash... Използвах ги да ми пренапишат малко bash скриптове и останах доста доволен....

Иначе ако ми се инвестираше в АИ машинка за големи модели без да харчи и грее кат духалка 1 кв, отиваме на тиим ред...

Ей това съм си харесал:


въпроса е за колкото кодя трябва ли да дам толкова пари а не се сещам за какво да го ползвам ефективно...

Малко по слабо е от твоя сетъп с три стари карти но пак може да рънва големи модели 70Б и пти 24/7 ще е само 150-200 вата (30-40 лв на месец за ток вместо около 200+ на сетъп като твоя)
 
@coolice разказал съм ти на лично :)
а публичната препоръка за теб:
qwen2.5-coder:32b
Това е 32B модела с Q4_K_M квантизация --> ще използва (ако имаш) около 20-22 GB VRAM и ще се разпредели между картите ако са няколко.

Ако нямаш сървърни карти подкарай дектоп машина с няколко карти и опитай:
Qwen3-Coder (~30B MoE, ~3.3B активни) --> трениран с reinforcement learning на SWE-Bench, проектиран за многостъпкови агентни задачи: четене на файлове, пускане на тестове, редактиране на код в цели репозиторита

DeepSeek-R1:32B --> reasoning модел, който "мисли" преди да отговори, по-бавен е (2-3×), но качеството на аналитични задачи го оправдава. Силен за дебъгване на сложна логика.

Qwen3-Coder-Next --> 80B MoE с само 3B активни параметъра. Най-новият специализиран coding модел от Alibaba.

p.s
можеш да добавиш и Web интерфейс с акаунтинг и т.н.
 
Последно редактирано:
Понеже днеска е майсторски ден :) се излигавих и подкарах едно майнерско дъно с недъгав процесор и смешно малко рам; подкарах Qwen3-Coder и веб интерфейса и за лиготията работи,
НОоооо отговаря с 2-3 символа в секунда 🤣

#! прецаках се да ъпгрейдна до последна версия и отказа да използва двата GTX и използва само 2060-тките


root@grub:/# cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 165
model name : Intel(R) Celeron(R) G5905 CPU @ 3.50GHz
stepping : 3
microcode : 0x100
cpu MHz : 3499.999
cache size : 4096 KB
physical id : 0
siblings : 2
core id : 0
cpu cores : 2
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 22
wp : yes
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc art arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc cpuid aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 sdbg cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave rdrand lahf_lm abm 3dnowprefetch cpuid_fault epb invpcid_single ssbd ibrs ibpb stibp ibrs_enhanced tpr_shadow vnmi flexpriority ept vpid ept_ad fsgsbase tsc_adjust smep erms invpcid mpx rdseed smap clflushopt intel_pt xsaveopt xsavec xgetbv1 xsaves dtherm arat pln pts hwp hwp_notify hwp_act_window hwp_epp md_clear flush_l1d arch_capabilities ibpb_exit_to_user
vmx flags : vnmi preemption_timer posted_intr invvpid ept_x_only ept_ad ept_1gb flexpriority apicv tsc_offset vtpr mtf vapic ept vpid unrestricted_guest vapic_reg vid ple pml ept_mode_based_exec
bugs : spectre_v1 spectre_v2 spec_store_bypass swapgs itlb_multihit srbds mmio_stale_data retbleed eibrs_pbrsb bhi its vmscape
bogomips : 6999.82
clflush size : 64
cache_alignment : 64
address sizes : 39 bits physical, 48 bits virtual
power management:

processor : 1
... същото ...

root@grub:/#
root@grub:/# free -h
total used free shared buff/cache available
Mem: 3.7Gi 3.4Gi 117Mi 36Mi 187Mi 71Mi
Swap: 8.0Gi 3.9Gi 4.1Gi
root@grub:/#
root@grub:/# nvidia-smi
Thu Apr 9 12:36:38 2026
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.126.20 Driver Version: 580.126.20 CUDA Version: 13.0 |
+-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA GeForce GTX 1080 Ti On | 00000000:01:00.0 On | N/A |
| 0% 32C P8 12W / 280W | 9MiB / 11264MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 1 NVIDIA GeForce RTX 2060 On | 00000000:02:00.0 Off | N/A |
| 41% 49C P2 46W / 172W | 5120MiB / 6144MiB | 1% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 2 NVIDIA GeForce RTX 2060 On | 00000000:03:00.0 Off | N/A |
| 39% 48C P2 36W / 172W | 5260MiB / 6144MiB | 1% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 3 NVIDIA GeForce RTX 2060 On | 00000000:04:00.0 Off | N/A |
| 33% 42C P2 37W / 172W | 5166MiB / 6144MiB | 2% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
| 4 NVIDIA GeForce GTX 1080 On | 00000000:05:00.0 Off | N/A |
| 0% 27C P8 6W / 200W | 3MiB / 8192MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| 1 N/A N/A 89677 C /usr/local/bin/ollama 5116MiB |
| 2 N/A N/A 89677 C /usr/local/bin/ollama 5256MiB |
| 3 N/A N/A 89677 C /usr/local/bin/ollama 5162MiB |
+-----------------------------------------------------------------------------------------+
root@grub:/#

public
 
Последно редактирано:
Забравих да уточня, че тази конфигурация е абсолютно НЕПОДХОДЯЩА за целта по една основна причина:
всичките слотове на дъното са 16x,
НО само първия е напълно опроводен а останалите 5 слота работят като 1x
и съответно мемори трансфера е в пъти по-бавен и спъва всичко!
 

Горе