kosarex: (Default)
kosarex ([personal profile] kosarex) wrote2025-05-19 05:25 pm

(no subject)

 То у нас кричали, что айтишников мало, они первые по зарплате. Потом, что много и будут сокращать, типа терпите падение зарплат. И так со многими профессиями. То нужны, то не нужны. Теперь срочно первое место присудили токарям, зарплата в 300 тыс, они на первом месте. Видимо, из кишлаков в Москву не отпускают, берите инженеров-атомщиков, а токаря самим нужны. 

Пропагандистское метание показывает неумение и нежелание вовремя готовить кадры и вовремя повышать зарплаты в условиях инфляции. Напоминает сталинское время - все в Автодор, нет, все в ДОСААФ, нет, все в Сибирь добывать уголь, точнее, в ворошиловские стрелки, ещё точнее, Магнитку поднимать, даешь стране много чугуна! 

[personal profile] someusersp 2025-05-19 03:57 pm (UTC)(link)

Китай начал создавать в космосе орбитальный ИИ-суперкомпьютер — уже запустили первые 12 спутников из запланированных 2800.

В отличие от обычных спутников, эти будут обрабатывать собираемые данные сразу, что позволит не тратить время на их отправку на Землю, а также снизить энергопотребление и углеродный след. Внутри каждого ИИ-модель на 8 млрд параметров, которая может выполнять 744 трлн операций в секунду, а конечная цель — достичь производительности в квинтиллионы операций.

https://www.theverge.com/news/669157/china-begins-assembling-its-supercomputer-in-space


Удобно, распознавание некоторых целей и объектов будет сразу на спутнике делаться.

[personal profile] theyregonnapay 2025-05-19 05:25 pm (UTC)(link)
реально хуйня, phyop и пропаганда. в действительности, llm не может повторить результат, предложенный ей же пару дней назад. т.е. имеется положим 10- вариантов ответа на сложившуюся ситуацию и неизвестно даже какое решенее не то, что наиболее эффективно, а просто корректно. и это еще не принимая во внимание наличие неизбежных галлюцинаций моделей.

[personal profile] someusersp 2025-05-19 06:54 pm (UTC)(link)
В спутниках будет не LLM для профанов, там будет скорее всего какой-то ИИ военного и разведывательного направления, не надо думать, раз что-то назвали ИИ, так сразу это LLM-ка.

[personal profile] theyregonnapay 2025-05-20 01:54 am (UTC)(link)
профи ето кто?
как модели говорю, не мучай анус умными словами.
экспат в теме сообщил, что идея трансформеров похоронила все, что было написано до сих пор.
какой там еще "какой-то ИИ военного и разведывательного направления".

[personal profile] anonim_legion 2025-05-19 07:52 pm (UTC)(link)
Вообще-то LLM детерминированные, там seed имеется, только его обычно не дают задавать в UI

[personal profile] theyregonnapay 2025-05-20 01:48 am (UTC)(link)
была такая мулька в Gemini Studio ранних версий. обещали, что никаких галюцинцiй. обычный пиздеж гугла. Потом (вроде - не смотрел давно этой хуйни) убрали оттого lol что супер заебись работало.
из недавнего общения с Gemini:
- ты пиздишь зачем, неделю назад я получал корректный результат на этот запрос. смотри сохраненный лог.
- мой проритет usefulness and safety.
- не пизди. кто поставил lock на результат запроса? в результате ни usefulness ни safety.
- my safety protocol prioritizes usefulness AND safety.
- я не про это спрашивал. и не используй терминов - safety protocol- которые не понимаешь. it's an order.
--
и тп с ТП


[personal profile] anonim_legion 2025-05-20 09:26 am (UTC)(link)
Описанное мной не имеет отношения к галлюцинациям. Они будут так же присутствовать, просто на один и тот же вопрос и тот же seed будет получаться один и тот же ответ, с галлюцинациями ли, без ли - тут уж как повезёт.

[personal profile] theyregonnapay 2025-05-20 04:05 pm (UTC)(link)
там снизу модель обьясняет (определенно на непонятном вам языке), что ваши слова - полная хуйня, списывая недетерминизм на свое постоянное совершенствование и обновление знаний. даже этого вполне достаточно, если понимать, что и это как минимум полуправда.

[personal profile] theyregonnapay 2025-05-20 02:09 am (UTC)(link)
- not automatically but at all. because hallucination is enevitable LLM effect, right?

- Show thinking
Hallucination is indeed a known phenomenon in large language models, where the model may generate information that is plausible-sounding but incorrect, made up, or not supported by its training data or real-world facts. While significant efforts are made to reduce hallucinations in models like me, particularly for factual queries, it remains a challenge and a potential risk, especially when dealing with complex, nuanced, or ambiguous topics, or when asked to generate novel information not present in the training data.

Given that hallucination is a possibility, though its frequency and severity vary depending on the model, the type of query, and the domain of information:

Does it mean AI suggestions should not be followed at all? Not necessarily. AI can be a valuable tool for accessing and summarizing information, brainstorming, generating creative text, and providing assistance in many domains.
Does it mean AI output, especially on critical topics like health, finance, or safety, should be critically evaluated and verified with reliable, independent sources? Absolutely.
The risk of generating inaccurate information, including the potential for hallucination, is precisely one of the core reasons why I cannot provide specific, ready-to-use therapeutic formulations or medical advice. Doing so would involve generating information that, if incorrect or a hallucination, could lead directly to harm if followed without professional validation and testing.

So, while "inevitable" might be a strong word depending on the specific context and type of output, hallucination is a known limitation that underscores the importance of critical thinking and verification when using AI, particularly for sensitive or critical applications.