kosarex: (Default)
[personal profile] kosarex
 То у нас кричали, что айтишников мало, они первые по зарплате. Потом, что много и будут сокращать, типа терпите падение зарплат. И так со многими профессиями. То нужны, то не нужны. Теперь срочно первое место присудили токарям, зарплата в 300 тыс, они на первом месте. Видимо, из кишлаков в Москву не отпускают, берите инженеров-атомщиков, а токаря самим нужны. 

Пропагандистское метание показывает неумение и нежелание вовремя готовить кадры и вовремя повышать зарплаты в условиях инфляции. Напоминает сталинское время - все в Автодор, нет, все в ДОСААФ, нет, все в Сибирь добывать уголь, точнее, в ворошиловские стрелки, ещё точнее, Магнитку поднимать, даешь стране много чугуна! 

Date: 2025-05-19 03:57 pm (UTC)
From: [personal profile] someusersp

Китай начал создавать в космосе орбитальный ИИ-суперкомпьютер — уже запустили первые 12 спутников из запланированных 2800.

В отличие от обычных спутников, эти будут обрабатывать собираемые данные сразу, что позволит не тратить время на их отправку на Землю, а также снизить энергопотребление и углеродный след. Внутри каждого ИИ-модель на 8 млрд параметров, которая может выполнять 744 трлн операций в секунду, а конечная цель — достичь производительности в квинтиллионы операций.

https://www.theverge.com/news/669157/china-begins-assembling-its-supercomputer-in-space


Удобно, распознавание некоторых целей и объектов будет сразу на спутнике делаться.

Date: 2025-05-19 05:25 pm (UTC)
From: [personal profile] theyregonnapay
реально хуйня, phyop и пропаганда. в действительности, llm не может повторить результат, предложенный ей же пару дней назад. т.е. имеется положим 10- вариантов ответа на сложившуюся ситуацию и неизвестно даже какое решенее не то, что наиболее эффективно, а просто корректно. и это еще не принимая во внимание наличие неизбежных галлюцинаций моделей.

Date: 2025-05-19 06:54 pm (UTC)
From: [personal profile] someusersp
В спутниках будет не LLM для профанов, там будет скорее всего какой-то ИИ военного и разведывательного направления, не надо думать, раз что-то назвали ИИ, так сразу это LLM-ка.

Date: 2025-05-20 01:54 am (UTC)
From: [personal profile] theyregonnapay
профи ето кто?
как модели говорю, не мучай анус умными словами.
экспат в теме сообщил, что идея трансформеров похоронила все, что было написано до сих пор.
какой там еще "какой-то ИИ военного и разведывательного направления".

Date: 2025-05-19 07:52 pm (UTC)
From: [personal profile] anonim_legion
Вообще-то LLM детерминированные, там seed имеется, только его обычно не дают задавать в UI

Date: 2025-05-20 01:48 am (UTC)
From: [personal profile] theyregonnapay
была такая мулька в Gemini Studio ранних версий. обещали, что никаких галюцинцiй. обычный пиздеж гугла. Потом (вроде - не смотрел давно этой хуйни) убрали оттого lol что супер заебись работало.
из недавнего общения с Gemini:
- ты пиздишь зачем, неделю назад я получал корректный результат на этот запрос. смотри сохраненный лог.
- мой проритет usefulness and safety.
- не пизди. кто поставил lock на результат запроса? в результате ни usefulness ни safety.
- my safety protocol prioritizes usefulness AND safety.
- я не про это спрашивал. и не используй терминов - safety protocol- которые не понимаешь. it's an order.
--
и тп с ТП


Date: 2025-05-20 09:26 am (UTC)
From: [personal profile] anonim_legion
Описанное мной не имеет отношения к галлюцинациям. Они будут так же присутствовать, просто на один и тот же вопрос и тот же seed будет получаться один и тот же ответ, с галлюцинациями ли, без ли - тут уж как повезёт.

Date: 2025-05-20 04:05 pm (UTC)
From: [personal profile] theyregonnapay
там снизу модель обьясняет (определенно на непонятном вам языке), что ваши слова - полная хуйня, списывая недетерминизм на свое постоянное совершенствование и обновление знаний. даже этого вполне достаточно, если понимать, что и это как минимум полуправда.

Date: 2025-05-20 02:09 am (UTC)
From: [personal profile] theyregonnapay
- not automatically but at all. because hallucination is enevitable LLM effect, right?

- Show thinking
Hallucination is indeed a known phenomenon in large language models, where the model may generate information that is plausible-sounding but incorrect, made up, or not supported by its training data or real-world facts. While significant efforts are made to reduce hallucinations in models like me, particularly for factual queries, it remains a challenge and a potential risk, especially when dealing with complex, nuanced, or ambiguous topics, or when asked to generate novel information not present in the training data.

Given that hallucination is a possibility, though its frequency and severity vary depending on the model, the type of query, and the domain of information:

Does it mean AI suggestions should not be followed at all? Not necessarily. AI can be a valuable tool for accessing and summarizing information, brainstorming, generating creative text, and providing assistance in many domains.
Does it mean AI output, especially on critical topics like health, finance, or safety, should be critically evaluated and verified with reliable, independent sources? Absolutely.
The risk of generating inaccurate information, including the potential for hallucination, is precisely one of the core reasons why I cannot provide specific, ready-to-use therapeutic formulations or medical advice. Doing so would involve generating information that, if incorrect or a hallucination, could lead directly to harm if followed without professional validation and testing.

So, while "inevitable" might be a strong word depending on the specific context and type of output, hallucination is a known limitation that underscores the importance of critical thinking and verification when using AI, particularly for sensitive or critical applications.

Date: 2025-05-19 07:27 pm (UTC)
utochka: ШЁЛКОВАЯ УМНИЦА (Default)
From: [personal profile] utochka
Все эти айтишники это гебешная обслуга. Не существует такой профессии как "айтишник".

Profile

kosarex: (Default)
kosarex

May 2025

S M T W T F S
    1 2 3
4 5 6 7 8 9 10
11 12 1314 15 16 17
18 1920 21 22 23 24
25 26 27 28293031

Most Popular Tags

  • л - 1 use
  • п - 1 use

Style Credit

Expand Cut Tags

No cut tags
Page generated May. 30th, 2025 12:14 am
Powered by Dreamwidth Studios