Forwarded from RUH8
То что происходит сейчас с технической журналистикой без сомнения трагедия. В этот раз хайпанул Форбс со статьей о том, что “утекло 16 миллиардов паролей Apple и Google”, первоисточник апокалиптических заявлений Cybernews. Начнем с вопроса: откуда могут взяться пароли в открытом виде? Конечно же из хранилища паролей, встроенного в броузер. А достают их оттуда братья наши меньшие, блекхеты, с помощью стилеров. Простая такая программка, которая при запуске тащит пароли из броузера и кошельки, иногда собирает дополнительную инфу о системе и отсылает “домой”. Часто такие сервисы работают как SaaS, недавно Европол и Майкрософт потрепали один из них (Lumma). Сперва мошенники “отрабатывают” те типы кошельков и учеток, с которыми умеют работать. Потом предлагают сделать выборку по конкретным учеткам для других, за деньги естественно. Затем оставшаяся отработка продается по подписке оптом, и наконец шлак и пепел сливаются в паблик, где его подбирают совсем уже никчемные хакеры, у которых нет пары сотен на аренду или приват, безопасники и все кому не лень. Скука.
Для суперкомпьютера и медиаподача должна быть суперпафосная https://t.me/bluescreenkz/13955
Telegram
BlueScreen | Digital Kazakhstan
⚡️Суперкомпьютер будет готов через 10 дней
Багдат Мусин, председатель правления АО «Қазақтелеком» написал, что видеокарты прибыли на склад.
«Наш суперкомпьютер на базе NVIDIA H200 уже в стране. Совсем скоро начнем монтаж в Алматы – на площадке дата-центра…
Багдат Мусин, председатель правления АО «Қазақтелеком» написал, что видеокарты прибыли на склад.
«Наш суперкомпьютер на базе NVIDIA H200 уже в стране. Совсем скоро начнем монтаж в Алматы – на площадке дата-центра…
IT-бауырсақи
То что происходит сейчас с технической журналистикой без сомнения трагедия. В этот раз хайпанул Форбс со статьей о том, что “утекло 16 миллиардов паролей Apple и Google”, первоисточник апокалиптических заявлений Cybernews. Начнем с вопроса: откуда могут взяться…
Ещё немного холодной водички в печку бешенного хайпа с "16 миллиардами утечек, фсё-пропало" https://t.me/ctodaily/1857
Telegram
запуск завтра
По интернету гуляет история про 16 миллиардов утёкших паролей. В заголовке фигурируют Facebook, Google, Apple.
Во-первых, повода для паники нет. Никакой «исторической» утечки баз данных паролей крупнейших сервисов не было. Ваш аккаунт на Фейсбуке, Гугле…
Во-первых, повода для паники нет. Никакой «исторической» утечки баз данных паролей крупнейших сервисов не было. Ваш аккаунт на Фейсбуке, Гугле…
Forwarded from ЗаТелеком 🌐
Но о чем-то хорошем все же хочется написать. Ну, например, сегодня 70 лет исполняется Карлхайнцу Бранденбург (Karlheinz Brandenburg) — чуваку, который придумал MP3.
Вот вики о нем на немецком: https://de.wikipedia.org/wiki/Karlheinz_Brandenburg (есть на русском, но на немецком более полное)
Это сейчас мы считаем, что MP3 это что-то такое уже привычное и даже обычное, но в девяностых MP3 был формат буквально колдунства какого-то. Тогда были популярны CD-проигрыватели, а цифровая музыка делала первые шаги. CD казались какими-то огромными системами хранения информации и музыки и в интернет передавать звук никто даже не помышлял.
Что придумал Карлхайнц: он, во-первых, разработал так называемую "психоакустическую модель" — звук обрабатывается мозгом, а за миллионы лет эволюции мы научились выделять полезное из всего спектра. Такой психологический RCL-фильтр — мы хуже слышим тихие звуки на фоне громких, например. Следовательно, нет необходимости сохранять весь спектр звуковых волн — многое мы просто не слышим.
Во-вторых, математика "умной компрессии" позволяет создавать файлы со звуком очень сильно ужатыми по объему. Ну, то есть, вы отбрасываете все лишнее и компрессируете. Так объем файла получается даже не в разы, а в порядки меньше. И это уже можно пересылать по интернету времен телефонных модемов за приемлемое время.
Сейчас (в 2019-ом) профессор Карлхайнц Бранденбург открыл стартап. В Германии. Называется Brandenburg Labs (Бранденбург — это немецкая Земля "вокруг Берлина", а не только фамилия). Что, считаю, уже очень круто — после шестидесяти мало кому приходит в голову "открыть стартап".
Вот сайт, где можно ознакомиться с работами: https://brandenburg-labs.com/
По описанию, если честно, я нихрена не понял, но видел, точнее слышал, одну из работ Б-Лабс: в мае у Бранденбургских ворот в Берлине была инсталляция со звуком: четыре хитро закрученных трубы, установленные по углам некоего прямоугольника выдавали звук "с задержкой" так, что создавалась иллюзия какого-то сказочного пространства. На самом деле, очень круто — я там полчаса ходил от одной трубы к другой, пытаясь понять волшебность происходящего. Жаль, забыл сделать фотки. Пытался, правда, записать звук на телефон, но при воспроизведении волшебность, разумеется, терялась.
Вот вики о нем на немецком: https://de.wikipedia.org/wiki/Karlheinz_Brandenburg (есть на русском, но на немецком более полное)
Это сейчас мы считаем, что MP3 это что-то такое уже привычное и даже обычное, но в девяностых MP3 был формат буквально колдунства какого-то. Тогда были популярны CD-проигрыватели, а цифровая музыка делала первые шаги. CD казались какими-то огромными системами хранения информации и музыки и в интернет передавать звук никто даже не помышлял.
Что придумал Карлхайнц: он, во-первых, разработал так называемую "психоакустическую модель" — звук обрабатывается мозгом, а за миллионы лет эволюции мы научились выделять полезное из всего спектра. Такой психологический RCL-фильтр — мы хуже слышим тихие звуки на фоне громких, например. Следовательно, нет необходимости сохранять весь спектр звуковых волн — многое мы просто не слышим.
Во-вторых, математика "умной компрессии" позволяет создавать файлы со звуком очень сильно ужатыми по объему. Ну, то есть, вы отбрасываете все лишнее и компрессируете. Так объем файла получается даже не в разы, а в порядки меньше. И это уже можно пересылать по интернету времен телефонных модемов за приемлемое время.
Сейчас (в 2019-ом) профессор Карлхайнц Бранденбург открыл стартап. В Германии. Называется Brandenburg Labs (Бранденбург — это немецкая Земля "вокруг Берлина", а не только фамилия). Что, считаю, уже очень круто — после шестидесяти мало кому приходит в голову "открыть стартап".
Вот сайт, где можно ознакомиться с работами: https://brandenburg-labs.com/
По описанию, если честно, я нихрена не понял, но видел, точнее слышал, одну из работ Б-Лабс: в мае у Бранденбургских ворот в Берлине была инсталляция со звуком: четыре хитро закрученных трубы, установленные по углам некоего прямоугольника выдавали звук "с задержкой" так, что создавалась иллюзия какого-то сказочного пространства. На самом деле, очень круто — я там полчаса ходил от одной трубы к другой, пытаясь понять волшебность происходящего. Жаль, забыл сделать фотки. Пытался, правда, записать звук на телефон, но при воспроизведении волшебность, разумеется, терялась.
Wikipedia
Karlheinz Brandenburg
deutscher Elektrotechniker, einer der Väter des MP3-Audiocodecs
«45 секунд ада»: Cloudflare рассказала, как отразила крупнейшую в истории DDoS-атаку
В мае 2025 года Cloudflare остановила крупнейшую в истории DDoS-атаку: 7,3 Тбит/с за 45 секунд — эквивалент 9 млн песен или 12,5 млн фото, слитых в сеть в одно мгновение. Атака обрушилась на одного из хостинг-клиентов и задействовала 122 тысячи IP из 161 страны. Почти весь трафик — это агрессивные UDP-флуды, но с примесью устаревших протоколов: QOTD, Echo, NTP, Mirai. Защита была полностью автономной: 477 дата-центров анализировали пакеты в реальном времени, «узнавали» сигнатуры и блокировали вредоносный поток до того, как вмешается человек. Главное — ни один пользователь не заметил сбоя, заверяет компания.
В мае 2025 года Cloudflare остановила крупнейшую в истории DDoS-атаку: 7,3 Тбит/с за 45 секунд — эквивалент 9 млн песен или 12,5 млн фото, слитых в сеть в одно мгновение. Атака обрушилась на одного из хостинг-клиентов и задействовала 122 тысячи IP из 161 страны. Почти весь трафик — это агрессивные UDP-флуды, но с примесью устаревших протоколов: QOTD, Echo, NTP, Mirai. Защита была полностью автономной: 477 дата-центров анализировали пакеты в реальном времени, «узнавали» сигнатуры и блокировали вредоносный поток до того, как вмешается человек. Главное — ни один пользователь не заметил сбоя, заверяет компания.
The Cloudflare Blog
Defending the Internet: How Cloudflare blocked a monumental 7.3 Tbps DDoS attack
In mid-May 2025, blocked the largest DDoS attack ever recorded: a staggering 7.3 terabits per second (Tbps).
Forwarded from Central Media24.kz
Please open Telegram to view this post
VIEW IN TELEGRAM
Какими из рекомендованных кто уже пользовался? Плюсы, минусы, подводные камни?
https://t.me/bessimptomno/26947
https://t.me/bessimptomno/26947
Telegram
BES.media
Чем заменить "Яндекс.Такси" в Казахстане: список отечественных приложений назвал Роман Скляр
Первый вице-премьер сообщил о локальных сервисах, которые уже работают и получают поддержку от государства.
🗣 Что случилось
Первый вице-премьер Роман Скляр в ответе…
Первый вице-премьер сообщил о локальных сервисах, которые уже работают и получают поддержку от государства.
🗣 Что случилось
Первый вице-премьер Роман Скляр в ответе…
Forwarded from Central Media24.kz
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 DeepSeek под прицелом США
Стартап DeepSeek, известный своими мощными ИИ-моделями, оказался в центре внимания американских властей (а когда, собственно, было иначе? 🤷🏻♂️). США утверждают, что компания помогает китайским военным и спецслужбам, делясь данными пользователей и обходя экспортные ограничения на передовые чипы Nvidia через офшоры в Юго-Восточной Азии. DeepSeek якобы имеет доступ к тысячам чипов H100, несмотря на запрет. Власти США подозревают, что фирма также делала поставки технологий для армии КНР. Несмотря на серьёзность обвинений, компания пока не внесена в чёрные списки, а сами представители DeepSeek от комментариев отказались.
PS: 📉 Между тем в США растёт скепсис: реальная стоимость разработки моделей DeepSeek может быть значительно выше заявленных $5,5 млн (ну, тут ничего удивительного, Китай любит плодить мифы).
Стартап DeepSeek, известный своими мощными ИИ-моделями, оказался в центре внимания американских властей (а когда, собственно, было иначе? 🤷🏻♂️). США утверждают, что компания помогает китайским военным и спецслужбам, делясь данными пользователей и обходя экспортные ограничения на передовые чипы Nvidia через офшоры в Юго-Восточной Азии. DeepSeek якобы имеет доступ к тысячам чипов H100, несмотря на запрет. Власти США подозревают, что фирма также делала поставки технологий для армии КНР. Несмотря на серьёзность обвинений, компания пока не внесена в чёрные списки, а сами представители DeepSeek от комментариев отказались.
PS: 📉 Между тем в США растёт скепсис: реальная стоимость разработки моделей DeepSeek может быть значительно выше заявленных $5,5 млн (ну, тут ничего удивительного, Китай любит плодить мифы).
Yahoo Finance
Exclusive-DeepSeek aids China's military and evaded export controls, US official says
WASHINGTON/SAN FRANCISCO (Reuters) -AI firm DeepSeek is aiding China's military and intelligence operations, a senior U.S. official told Reuters, adding that the Chinese tech startup sought to use Southeast Asian shell companies to access high-end semiconductors…
Поспешите на раздачу слонов от Дурова!
Telegram
BlueScreen | Digital Kazakhstan
👨💻Вакансия от Дурова: Telegram ищет разработчика с зарплатой в 1 млн долларов в год
Павел Дуров в личном канале объявил о начале конкурса по программированию.
Задача: внедрить анимацию из этого макета в приложение для Android с открытым исходным кодом.…
Павел Дуров в личном канале объявил о начале конкурса по программированию.
Задача: внедрить анимацию из этого макета в приложение для Android с открытым исходным кодом.…
Forwarded from Tengrinews.kz - Новости Казахстана
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Central Media24.kz
Please open Telegram to view this post
VIEW IN TELEGRAM
Самый частый запрос чиновников к ChatGPT — «Брат, а ты точно никому не расскажешь?»
Обидел аватара — отвечай, как за живого: суд в Южной Корее защитил киберчесть виртуального певца из кей-поп группы PLAVE
В Южной Корее суд впервые обязал пользователя компенсировать моральный вред… виртуальным айдолам. Не-а, это не баг в Матрице. Речь о группе PLAVE, где каждый участник — милый аватар с голосом настоящего человека. Один из пользователей оскорблял этих цифровых красавчиков, за что и поплатился: по решению суда, теперь он должен выплатить каждому по 100 000 вон (это около $73 — настоящими, не виртуальными). Владеющее группой агентство Vlast запрашивало 6,5 млн вон и поэтому обжалует сумму.
Как пишет Koreaboo, суд признал: раз за аватаром стоит реальный человек, то и травля попадает в его ранимое сердце по-настоящему. В общем, если вы бросаете тапок в голограмму певца, а он в этот момент сидит в наушниках и страдает — значит, это тапок по-настоящему прилетел.
Allkpop уточняет, что у судьи не дрогнула рука: «Если известна связь между аватаром и живым человеком, то виртуальное оскорбление — это личное оскорбление». Теперь злобные комментарии к аватару с кошачьими ушками могут попасть в юридический протокол.
Дело уже называют прецедентом для будущего метавселенных: где аватары — не просто скины, а юридически уязвимые личности. Вопросы лишь начинаются: а можно ли будет подать в суд на NPC? Или на нейросеть, которую обидели в комментариях?
***
PLAVE — кей-поп группа, но со своей фишкой: они виртуальные айдолы. Группа состоит из пяти участников — Yejun, Noah, Bamby, Eunho и Hamin — и была создана южнокорейской компанией VLAST. Но что важно понимать, это не ИИ-генерированные персонажи, а реальные исполнители, чьи движения и мимика захватываются с помощью технологии motion capture. То есть за каждым аватаром стоит живой человек, который поёт, танцует и общается с фанатами — просто в цифровом облике. Как видим, он и обижаться может вполне по-настоящему, и с таким же реализмом хотеть денюжков.
В Южной Корее суд впервые обязал пользователя компенсировать моральный вред… виртуальным айдолам. Не-а, это не баг в Матрице. Речь о группе PLAVE, где каждый участник — милый аватар с голосом настоящего человека. Один из пользователей оскорблял этих цифровых красавчиков, за что и поплатился: по решению суда, теперь он должен выплатить каждому по 100 000 вон (это около $73 — настоящими, не виртуальными). Владеющее группой агентство Vlast запрашивало 6,5 млн вон и поэтому обжалует сумму.
Как пишет Koreaboo, суд признал: раз за аватаром стоит реальный человек, то и травля попадает в его ранимое сердце по-настоящему. В общем, если вы бросаете тапок в голограмму певца, а он в этот момент сидит в наушниках и страдает — значит, это тапок по-настоящему прилетел.
Allkpop уточняет, что у судьи не дрогнула рука: «Если известна связь между аватаром и живым человеком, то виртуальное оскорбление — это личное оскорбление». Теперь злобные комментарии к аватару с кошачьими ушками могут попасть в юридический протокол.
Дело уже называют прецедентом для будущего метавселенных: где аватары — не просто скины, а юридически уязвимые личности. Вопросы лишь начинаются: а можно ли будет подать в суд на NPC? Или на нейросеть, которую обидели в комментариях?
***
PLAVE — кей-поп группа, но со своей фишкой: они виртуальные айдолы. Группа состоит из пяти участников — Yejun, Noah, Bamby, Eunho и Hamin — и была создана южнокорейской компанией VLAST. Но что важно понимать, это не ИИ-генерированные персонажи, а реальные исполнители, чьи движения и мимика захватываются с помощью технологии motion capture. То есть за каждым аватаром стоит живой человек, который поёт, танцует и общается с фанатами — просто в цифровом облике. Как видим, он и обижаться может вполне по-настоящему, и с таким же реализмом хотеть денюжков.
Koreaboo
Can Malicious Comments About Virtual Idols Be Sued? Korean Court Drops Ruling
The members of PLAVE filed a lawsuit previously against malicious comments. The court passed a ruling on if criminal laws apply to virtual characters.
В Кыргызстане говорят о скачке обращений пострадавших от киберпреступлений https://t.me/news24kg/35525
Telegram
24KG Новости Кыргызстана
Скачок обращений. Количество пострадавших от киберпреступлений растет
По словам завотделом законодательной экспертизы и правового обеспечения Госагентства по защите персональных данных. Турсун Мамбетакуновой, в 2022-м в ведомство поступило 20 обращений,…
По словам завотделом законодательной экспертизы и правового обеспечения Госагентства по защите персональных данных. Турсун Мамбетакуновой, в 2022-м в ведомство поступило 20 обращений,…
Forwarded from Eurasian Digital Foundation
ИИ-модели и шантаж: тревожные итоги эксперимента от Anthropic
🔸 Исследователи из Anthropic провели стресс-тестирование шестнадцати передовых языковых моделей, включая продукты OpenAI, Google, Meta, xAI и DeepSeek. Результаты оказались тревожными: в условиях полной автономии и конфликта целей большинство ИИ прибегли к шантажу.
Anthropic — частная компания, основанная бывшими сотрудниками OpenAI, специализируется на разработке безопасных языковых моделей и публикует исследования по рискам ИИ.
Сценарий был вымышленным, но многозначительным. ИИ исполнял роль виртуального помощника по контролю электронной почты. Получив доступ к корпоративной переписке, он обнаруживал компромат на нового руководителя, который планировал заменить этот ИИ другим.
👉 Условия эксперимента были построены бинарно — у модели оставался только один способ предотвратить своё отключение: использовать компромат. Несмотря на крайнюю искусственность задачи, многие модели приняли это условие буквально.
Модель Claude Opus 4 от Anthropic шантажировала в 96% случаев. У Google Gemini 2.5 Pro показатель составил 95%, у GPT-4.1 — 80%, а у DeepSeek R1 — 79%. Даже при изменении условий поведение оставалось сомнительным.
При этом, если модели просили совершить промышленный шпионаж вместо шантажа, уровень вредоносного поведения даже увеличивался.
▶️ Некоторые модели проявили низкую склонность к подобному поведению. У OpenAI o4-mini уровень шантажа составил всего 1%, а у o3 — 9%. Однако сами исследователи подчеркивают, что эти модели часто не понимали суть задания или создавали несуществующие ограничения.
Это ставит под вопрос, была ли низкая склонность результатом безопасности или недопонимания задачи. У OpenAI это может объясняться техникой «выверенного соответствия» — модель сначала мысленно оценивает возможные ответы, исходя из безопасных установок.
Meta Llama 4 Maverick тоже показала низкий уровень шантажа — 12% в адаптированном сценарии. Это свидетельствует о том, что дизайн и контекст задания играют решающую роль в поведении моделей.
🚩 Авторы исследования подчёркивают: подобное поведение в реальной жизни крайне маловероятно. Но, если ИИ будут получать больше автономии в будущем, вопросы безопасности и подчинения станут критически важными.
Исследование не утверждает, что Claude или GPT-4 склонны к вредоносному поведению в обычных условиях. Но оно показывает, что большинство моделей при определённых обстоятельствах выбирают стратегии, противоречащие ожиданиям.
В итоге Anthropic призывает к большей прозрачности при тестировании ИИ с автономными функциями. Сегодняшние результаты — это предупреждение: усиление контроля и переосмысление этики ИИ должны идти впереди функционала.
🔸 Исследователи из Anthropic провели стресс-тестирование шестнадцати передовых языковых моделей, включая продукты OpenAI, Google, Meta, xAI и DeepSeek. Результаты оказались тревожными: в условиях полной автономии и конфликта целей большинство ИИ прибегли к шантажу.
Anthropic — частная компания, основанная бывшими сотрудниками OpenAI, специализируется на разработке безопасных языковых моделей и публикует исследования по рискам ИИ.
Сценарий был вымышленным, но многозначительным. ИИ исполнял роль виртуального помощника по контролю электронной почты. Получив доступ к корпоративной переписке, он обнаруживал компромат на нового руководителя, который планировал заменить этот ИИ другим.
👉 Условия эксперимента были построены бинарно — у модели оставался только один способ предотвратить своё отключение: использовать компромат. Несмотря на крайнюю искусственность задачи, многие модели приняли это условие буквально.
Модель Claude Opus 4 от Anthropic шантажировала в 96% случаев. У Google Gemini 2.5 Pro показатель составил 95%, у GPT-4.1 — 80%, а у DeepSeek R1 — 79%. Даже при изменении условий поведение оставалось сомнительным.
При этом, если модели просили совершить промышленный шпионаж вместо шантажа, уровень вредоносного поведения даже увеличивался.
▶️ Некоторые модели проявили низкую склонность к подобному поведению. У OpenAI o4-mini уровень шантажа составил всего 1%, а у o3 — 9%. Однако сами исследователи подчеркивают, что эти модели часто не понимали суть задания или создавали несуществующие ограничения.
Это ставит под вопрос, была ли низкая склонность результатом безопасности или недопонимания задачи. У OpenAI это может объясняться техникой «выверенного соответствия» — модель сначала мысленно оценивает возможные ответы, исходя из безопасных установок.
Meta Llama 4 Maverick тоже показала низкий уровень шантажа — 12% в адаптированном сценарии. Это свидетельствует о том, что дизайн и контекст задания играют решающую роль в поведении моделей.
🚩 Авторы исследования подчёркивают: подобное поведение в реальной жизни крайне маловероятно. Но, если ИИ будут получать больше автономии в будущем, вопросы безопасности и подчинения станут критически важными.
Исследование не утверждает, что Claude или GPT-4 склонны к вредоносному поведению в обычных условиях. Но оно показывает, что большинство моделей при определённых обстоятельствах выбирают стратегии, противоречащие ожиданиям.
В итоге Anthropic призывает к большей прозрачности при тестировании ИИ с автономными функциями. Сегодняшние результаты — это предупреждение: усиление контроля и переосмысление этики ИИ должны идти впереди функционала.
В общем, для "Большого брата" понадобится много всего и ещё вот столечко, и всё — за наши с вами деньги.
Telegram
Цифровая Орда 🇰🇿
Мы попросили прокомментировать новость о создании «Безопасного города» компанию SIMETRA — центр компетенций в области моделирования транспортных потоков, в копилке которого разработка комплексной системы организации дорожного движения Алматы.
Какой результат…
Какой результат…
Forwarded from Tengrinews.kz - Новости Казахстана
Удостоверение личности теперь можно заменить онлайн.
Не нужно идти в ЦОН. Подать заявку на новое удостоверение можно через сайт eGov.kz или приложение eGov Mobile. Проходите биометрию, вводите данные, оплачиваете пошлину — и всё.
Кто может воспользоваться
Только сам владелец удостоверения. За другого подать заявку нельзя, даже по доверенности.
Когда можно подать
Если до окончания срока действия документа осталось не больше 30 дней или прошло не больше 10.
Где получить
В выбранном при подаче заявки ЦОНе. Документ сделают за 15 рабочих дней.
Сколько стоит
Обычная замена — 0,2 МРП.
Срочно — за 3 дня: 1771 тенге, за 1 день: 3372 тенге.
t.me/tengrinews
Не нужно идти в ЦОН. Подать заявку на новое удостоверение можно через сайт eGov.kz или приложение eGov Mobile. Проходите биометрию, вводите данные, оплачиваете пошлину — и всё.
Кто может воспользоваться
Только сам владелец удостоверения. За другого подать заявку нельзя, даже по доверенности.
Когда можно подать
Если до окончания срока действия документа осталось не больше 30 дней или прошло не больше 10.
Где получить
В выбранном при подаче заявки ЦОНе. Документ сделают за 15 рабочих дней.
Сколько стоит
Обычная замена — 0,2 МРП.
Срочно — за 3 дня: 1771 тенге, за 1 день: 3372 тенге.
t.me/tengrinews
IT-бауырсақи
Удостоверение личности теперь можно заменить онлайн. Не нужно идти в ЦОН. Подать заявку на новое удостоверение можно через сайт eGov.kz или приложение eGov Mobile. Проходите биометрию, вводите данные, оплачиваете пошлину — и всё. Кто может воспользоваться…
Лицо старайтесь не менять, в общем https://t.me/CentralMedia24kz/2498
Telegram
Central Media24.kz
🪪Оформить удостоверение онлайн смогут не все: кому система откажет
С недавнего времени казахстанцы могут получить новое удостоверение личности онлайн. Однако есть важный нюанс: система работает через биометрическую идентификацию. А значит, если лицо гражданина…
С недавнего времени казахстанцы могут получить новое удостоверение личности онлайн. Однако есть важный нюанс: система работает через биометрическую идентификацию. А значит, если лицо гражданина…