Smart byte что это
SmartByte Gives Videos More Bandwidth, Tells Windows Update to Take a Seat
Isn’t it the worst when you want to conduct a Skype call or watch a Netflix movie, but your computer often has other priorities? While you stare in disbelief at a grainy, low-res video feed or wait impatiently for buffering, Windows Update and Dropbox could be slurping bandwidth through an extra-wide straw. Enter SmartByte, a new software utility that will come preloaded on select Dell laptops and control which applications get priority connections and which ones can wait patiently for leftovers.
Developed by Rivet Networks, the company behind the powerful Killer Networking Wi-Fi cards that appear in several Dell and Alienware laptops, SmartByte automatically detects when you’re streaming video and gives that feed most of the available Internet connection.
The utility, which is enabled by default, works with both Intel and Realtek wireless chips. Systems with Killer Networking cards don’t need SmartByte, because they already have network prioritization built-in, along with better reception overall.
Rivet Networks claims that in its lab tests, a laptop with a 10 Mbps Internet connection initially took 3 minutes and 59 seconds to play a 2-minute and 13-second movie trailer, because Windows Update was hogging so much bandwidth that the stream froze eight times. With SmartByte enabled, the video didn’t freeze even once.
In another test, the company says that a Skype video played at 320 x 180 resolution with SmartByte disabled and a much-higher, 960 x 540 with the utility turned on. The video call also went from having 13.6% of its data packets dropped to a near-zero error rate.
If you want SmartByte, you’ll have to buy a new Dell system such as the Inspiron 27 7000, which comes with it preloaded. For now at least, Rivet Networks has no plans to make it available as a standalone utility.
Как потратить своё время и ресурс SSD впустую? Легко и просто
«Тестировать нельзя диагностировать» – куда бы вы поставили запятую в данном предложении? Надеемся, что после прочтения данного материала вы без проблем можете чётко дать ответ на этот вопрос. Многие пользователи когда-либо сталкивались с потерей данных по той или иной причине, будь то программная или аппаратная проблема самого накопителя или же нестандартное физическое воздействие на него, если вы понимаете, о чём мы. Но именно о физических повреждениях сегодня речь и не пойдёт. Поговорим мы как раз о том, что от наших рук не зависит. Стоит ли тестировать SSD каждый день/неделю/месяц или это пустая трата его ресурса? А чем их вообще тестировать? Получая определённые результаты, вы правильно их понимаете? И как можно просто и быстро убедиться, что диск в порядке или ваши данные под угрозой?
Тестирование или диагностика? Программ много, но суть одна
На первый взгляд диагностика и подразумевает тестирование, если думать глобально. Но в случае с накопителями, будь то HDD или SSD, всё немного иначе. Под тестированием рядовой пользователь подразумевает проверку его характеристик и сопоставление полученных показателей с заявленными. А под диагностикой – изучение S.M.A.R.T., о котором мы сегодня тоже поговорим, но немного позже. На фотографию попал и классический HDD, что, на самом деле, не случайность…
Так уж получилось, что именно подсистема хранения данных в настольных системах является одним из самых уязвимых мест, так как срок службы накопителей чаще всего меньше, чем у остальных компонентов ПК, моноблока или ноутбука. Если ранее это было связано с механической составляющей (в жёстких дисках вращаются пластины, двигаются головки) и некоторые проблемы можно было определить, не запуская каких-либо программ, то сейчас всё стало немного сложнее – никакого хруста внутри SSD нет и быть не может. Что же делать владельцам твердотельных накопителей?
Программ для тестирования SSD развелось великое множество. Какие-то стали популярными и постоянно обновляются, часть из них давно забыта, а некоторые настолько хороши, что разработчики не обновляют их годами – смысла просто нет. В особо тяжёлых случаях можно прогонять полное тестирование по международной методике Solid State Storage (SSS) Performance Test Specification (PTS), но в крайности мы бросаться не будем. Сразу же ещё отметим, что некоторые производители заявляют одни скорости работы, а по факту скорости могут быть заметно ниже: если накопитель новый и исправный, то перед нами решение с SLC-кешированием, где максимальная скорость работы доступна только первые несколько гигабайт (или десятков гигабайт, если объём диска более 900 ГБ), а затем скорость падает. Это совершенно нормальная ситуация. Как понять объём кеша и убедиться, что проблема на самом деле не проблема? Взять файл, к примеру, объёмом 50 ГБ и скопировать его на подопытный накопитель с заведомо более быстрого носителя. Скорость будет высокая, потом снизится и останется равномерной до самого конца в рамках 50-150 МБ/с, в зависимости от модели SSD. Если же тестовый файл копируется неравномерно (к примеру, возникают паузы с падением скорости до 0 МБ/с), тогда стоит задуматься о дополнительном тестировании и изучении состояния SSD при помощи фирменного программного обеспечения от производителя.
Яркий пример корректной работы SSD с технологией SLC-кеширования представлен на скриншоте:
Те пользователи, которые используют Windows 10, могут узнать о возникших проблемах без лишних действий – как только операционная система видит негативные изменения в S.M.A.R.T., она предупреждает об этом с рекомендацией сделать резервные копии данных. Но вернёмся немного назад, а именно к так называемым бенчмаркам. AS SSD Benchmark, CrystalDiskMark, Anvils Storage Utilities, ATTO Disk Benchmark, TxBench и, в конце концов, Iometer – знакомые названия, не правда ли? Нельзя отрицать, что каждый из вас с какой-либо периодичностью запускает эти самые бенчмарки, чтобы проверить скорость работы установленного SSD. Если накопитель жив и здоров, то мы видим, так сказать, красивые результаты, которые радуют глаз и обеспечивают спокойствие души за денежные средства в кошельке. А что за цифры мы видим? Чаще всего замеряют четыре показателя – последовательные чтение и запись, операции 4K (КБ) блоками, многопоточные операции 4K блоками и время отклика накопителя. Важны все вышеперечисленные показатели. Да, каждый из них может быть совершенно разным для разных накопителей. К примеру, для накопителей №1 и №2 заявлены одинаковые скорости последовательного чтения и записи, но скорости работы с блоками 4K у них могут отличаться на порядок – всё зависит от памяти, контроллера и прошивки. Поэтому сравнивать результаты разных моделей попросту нельзя. Для корректного сравнения допускается использовать только полностью идентичные накопители. Ещё есть такой показатель, как IOPS, но он зависит от иных вышеперечисленных показателей, поэтому отдельно говорить об этом не стоит. Иногда в бенчмарках встречаются показатели случайных чтения/записи, но считать их основными, на наш взгляд, смысла нет.
И, как легко догадаться, результаты каждая программа может демонстрировать разные данные – всё зависит от тех параметров тестирования, которые устанавливает разработчик. В некоторых случаях их можно менять, получая разные результаты. Но если тестировать «в лоб», то цифры могут сильно отличаться. Вот ещё один пример теста, где при настройках «по умолчанию» мы видим заметно отличимые результаты последовательных чтения и записи. Но внимание также стоит обратить на скорости работы с 4K блоками – вот тут уже все программы показывают примерно одинаковый результат. Собственно, именно этот тест и является одним из ключевых.
Но, как мы заметили, только одним из ключевых. Да и ещё кое-что надо держать в уме – состояние накопителя. Если вы принесли диск из магазина и протестировали его в одном из перечисленных выше бенчмарков, практически всегда вы получите заявленные характеристики. Но если повторить тестирование через некоторое время, когда диск будет частично или почти полностью заполнен или же был заполнен, но вы самым обычным способом удалили некоторое количество данных, то результаты могут разительно отличаться. Это связано как раз с принципом работы твердотельных накопителей с данными, когда они не удаляются сразу, а только помечаются на удаление. В таком случае перед записью новых данных (тех же тестовых файлов из бенчмарков), сначала производится удаление старых данных. Более подробно мы рассказывали об этом в предыдущем материале.
На самом деле в зависимости от сценариев работы, параметры нужно подбирать самим. Одно дело – домашние или офисные системы, где используется Windows/Linux/MacOS, а совсем другое – серверные, предназначенные для выполнения определённых задач. К примеру, в серверах, работающих с базами данных, могут быть установлены NVMe-накопители, прекрасно переваривающие глубину очереди хоть 256 и для которых таковая 32 или 64 – детский лепет. Конечно, применение классических бенчмарков, перечисленных выше, в данном случае – пустая трата времени. В крупных компаниях используют самописные сценарии тестирования, например, на основе утилиты fio. Те, кому не требуется воспроизведение определённых задач, могут воспользоваться международной методикой SNIA, в которой описаны все проводимые тесты и предложены псевдоскрипты. Да, над ними потребуется немного поработать, но можно получить полностью автоматизированное тестирование, по результатам которого можно понять поведение накопителя – выявить его сильные и слабые места, посмотреть, как он ведёт себя при длительных нагрузках и получить представление о производительности при работе с разными блоками данных.
В любом случае надо сказать, что у каждого производителя тестовый софт свой. Чаще всего название, версия и параметры выбранного им бенчмарка дописываются в спецификации мелким шрифтом где-нибудь внизу. Конечно, результаты примерно сопоставимы, но различия в результатах, безусловно, могут быть. Из этого следует, как бы грустно это ни звучало, что пользователю надо быть внимательным при тестировании: если результат не совпадает с заявленным, то, возможно, просто установлены другие параметры тестирования, от которых зависит очень многое.
Теория – хорошо, но давайте вернёмся к реальному положению дел. Как мы уже говорили, важно найти данные о параметрах тестирования производителем именно того накопителя, который вы приобрели. Думаете это всё? Нет, не всё. Многое зависит и от аппаратной платформы – тестового стенда, на котором проводится тестирование. Конечно, эти данные также могут быть указаны в спецификации на конкретный SSD, но так бывает не всегда. Что от этого зависит? К примеру, перед покупкой SSD, вы прочитали несколько обзоров. В каждом из них авторы использовали одинаковые стандартные бенчмарки, которые продемонстрировали разные результаты. Кому верить? Если материнские платы и программное обеспечение (включая операционную систему) были одинаковы – вопрос справедливый, придётся искать дополнительный независимый источник информации. А вот если платы или ОС отличаются – различия в результатах можно считать в порядке вещей. Другой драйвер, другая операционная система, другая материнская плата, а также разная температура накопителей во время тестирования – всё это влияет на конечные результаты. Именно по этой причине получить те цифры, которые вы видите на сайтах производителей или в обзорах, практически невозможно. И именно по этой причине нет смысла беспокоиться за различия ваших результатов и результатов других пользователей. Например, на материнской плате иногда реализовывают сторонние SATA-контроллеры (чтобы увеличить количество соответствующих портов), а они чаще всего обладают худшими скоростями. Причём разница может составлять до 25-35%! Иными словами, для воспроизведения заявленных результатов потребуется чётко соблюдать все аспекты методики тестирования. Поэтому, если полученные вами скоростные показатели не соответствуют заявленным, нести покупку обратно в магазин в тот же день не стоит. Если, конечно, это не совсем критичная ситуация с минимальным быстродействием и провалами при чтении или записи данных. Кроме того, скорости большинства твердотельных накопителей меняются в худшую скорость с течением времени, останавливаясь на определённой отметке, которая называется стационарная производительность. Так вот вопрос: а надо ли в итоге постоянно тестировать SSD? Хотя не совсем правильно. Вот так лучше: а есть ли смысл постоянно тестировать SSD?
Регулярное тестирование или наблюдение за поведением?
Так надо ли, приходя с работы домой, приниматься прогонять в очередной раз бенчмарк? Вот это, как раз, делать и не рекомендуется. Как ни крути, но любая из существующих программ данного типа пишет данные на накопитель. Какая-то больше, какая-то меньше, но пишет. Да, по сравнению с ресурсом SSD записываемый объём достаточно мал, но он есть. Да и функции TRIM/Deallocate потребуется время на обработку удалённых данных. В общем, регулярно или от нечего делать запускать тесты никакого смысла нет. Но вот если в повседневной работе вы начинаете замечать подтормаживания системы или тяжёлого программного обеспечения, установленного на SSD, а также зависания, BSOD’ы, ошибки записи и чтения файлов, тогда уже следует озадачиться выявлением причины возникающей проблемы. Не исключено, что проблема может быть на стороне других комплектующих, но проверить накопитель – проще всего. Для этого потребуется фирменное программное обеспечение от производителя SSD. Для наших накопителей – Kingston SSD Manager. Но перво-наперво делайте резервные копии важных данных, а уже потом занимайтесь диагностикой и тестированием. Для начала смотрим в область SSD Health. В ней есть два показателя в процентах. Первый – так называемый износ накопителя, второй – использование резервной области памяти. Чем ниже значение, тем больше беспокойства с вашей стороны должно быть. Конечно, если значения уменьшаются на 1-2-3% в год при очень интенсивном использовании накопителя, то это нормальная ситуация. Другое дело, если без особых нагрузок значения снижаются необычно быстро. Рядом есть ещё одна область – Health Overview. В ней кратко сообщается о том, были ли зафиксированы ошибки разного рода, и указано общее состояние накопителя. Также проверяем наличие новой прошивки. Точнее программа сама это делает. Если таковая есть, а диск ведёт себя странно (есть ошибки, снижается уровень «здоровья» и вообще исключены другие комплектующие), то можем смело устанавливать.
Если же производитель вашего SSD не позаботился о поддержке в виде фирменного софта, то можно использовать универсальный, к примеру – CrystalDiskInfo. Нет, у Intel есть своё программное обеспечение, на скриншоте ниже – просто пример 🙂 На что обратить внимание? На процент состояния здоровья (хотя бы примерно, но ситуация будет понятна), на общее время работы, число включений и объёмы записанных и считанных данных. Не всегда эти значения будут отображены, а часть атрибутов в списке будут видны как Vendor Specific. Об этом чуть позже.
А вот яркий пример уже вышедшего из строя накопителя, который работал относительно недолго, но потом начал работать «через раз». При включении система его не видела, а после перезагрузки всё было нормально. И такая ситуация повторялась в случайном порядке. Главное при таком поведении накопителя – сразу же сделать бэкап важных данных, о чём, правда, мы сказали совсем недавно. Но повторять это не устанем. Число включений и время работы – совершенно недостижимые. Почти 20 тысяч суток работы. Или около 54 лет…
Но и это ещё не всё – взгляните на значения из фирменного ПО производителя! Невероятные значения, верно? Вот в таких случаях может помочь обновление прошивки до актуальной версии. Если таковой нет, то лучше обращаться к производителю в рамках гарантийного обслуживания. А если новая прошивка есть, то после обновления не закидывать на диск важные данные, а поработать с ним осторожно и посмотреть на предмет стабильности. Возможно, проблема будет решена, но возможно – нет.
Добавить можно ещё вот что. Некоторые пользователи по привычке или незнанию используют давно знакомый им софт, которым производят мониторинг состояния классических жёстких дисков (HDD). Так делать настоятельно не рекомендуется, так как алгоритмы работы HDD и SSD разительно отличаются, как и набор команд контроллеров. Особенно это касается NVMe SSD. Некоторые программы (например, Victoria) получили поддержку SSD, но их всё равно продолжают дорабатывать (а доработают ли?) в плане корректности демонстрации информации о подключённых носителях. К примеру, прошло лишь около месяца с того момента, как показания SMART для SSD Kingston обрели хоть какой-то правильный вид, да и то не до конца. Всё это касается не только вышеупомянутой программы, но и многих других. Именно поэтому, чтобы избежать неправильной интерпретации данных, стоит пользоваться только тем софтом, в котором есть уверенность, – фирменные утилиты от производителей или же крупные и часто обновляемые проекты.
Присмотр за каждой ячейкой – смело. Глупо, но смело
Некоторые производители реализуют в своём программном обеспечении возможность проверки адресов каждого логического блока (LBA) на предмет наличия ошибок при чтении. В ходе такого тестирования всё свободное пространство накопителя используется для записи произвольных данных и обратного их считывания для проверки целостности. Такое сканирование может занять не один час (зависит от объёма накопителя и свободного пространства на нём, а также его скоростных показателей). Такой тест позволяет выявить сбойные ячейки. Но без нюансов не обходится. Во-первых, по-хорошему, SSD должен быть пуст, чтобы проверить максимум памяти. Отсюда вытекает ещё одна проблема: надо делать бэкапы и заливать их обратно, что отнимает ресурс накопителя. Во-вторых, ещё больше ресурса памяти тратится на само выполнение теста. Не говоря уже о затрачиваемом времени. А что в итоге мы узнаем по результатам тестирования? Варианта, как вы понимаете, два – или будут битые ячейки, или нет. В первом случае мы впустую тратим ресурс и время, а во втором – впустую тратим ресурс и время. Да-да, это так и звучит. Сбойные ячейки и без такого тестирования дадут о себе знать, когда придёт время. Так что смысла в проверки каждого LBA нет никакого.
А можно несколько подробнее о S.M.A.R.T.?
Все когда-то видели набор определённых названий (атрибутов) и их значений, выведенных списком в соответствующем разделе или прямо в главном окне программы, как это видно на скриншоте выше. Но что они означают и как их понять? Немного вернёмся в прошлое, чтобы понять что к чему. По идее, каждый производитель вносит в продукцию что-то своё, чтобы этой уникальностью привлечь потенциального покупателя. Но вот со S.M.A.R.T. вышло несколько иначе.
В зависимости от производителя и модели накопителя набор параметров может меняться, поэтому универсальные программы могут не знать тех или иных значений, помечая их как Vendor Specific. Многие производители предоставляют в открытом доступе документацию для понимания атрибутов своих накопителей – SMART Attribute. Её можно найти на сайте производителя.
Именно поэтому и рекомендуется использовать именно фирменный софт, который в курсе всех тонкостей совместимых моделей накопителей. Кроме того, настоятельно рекомендуется использовать английский интерфейс, чтобы получить достоверную информацию о состоянии накопителя. Зачастую перевод на русский не совсем верен, что может привести в замешательство. Да и сама документация, о которой мы сказали выше, чаще всего предоставляется именно на английском.
Сейчас мы рассмотрим основные атрибуты на примере накопителя Kingston UV500. Кому интересно – читаем, кому нет – жмём PageDown пару раз и читаем заключение. Но, надеемся, вам всё же интересно – информация полезная, как ни крути. Построение текста может выглядеть необычно, но так для всех будет удобнее – не потребуется вводить лишние слова-переменные, а также именно оригинальные слова будет проще найти в отчёте о вашем накопителе.
(ID 1) Read Error Rate – содержит частоту возникновения ошибок при чтении.
(ID 5) Reallocated Sector Count – количество переназначенных секторов. Является, по сути, главным атрибутом. Если SSD в процессе работы находит сбойный сектор, то он может посчитать его невосполнимо повреждённым. В этом случае диск использует вместо него сектор из резервной области. Новый сектор получает логический номер LBA старого, после чего при обращении к сектору с этим номером запрос будет перенаправляться в тот, что находится в резервной области. Если ошибка единичная – это не проблема. Но если такие сектора будут появляться регулярно, то проблему можно считать критической.
(ID 9) Power On Hours – время работы накопителя в часах, включая режим простоя и всяческих режимов энергосбережения.
(ID 12) Power Cycle Count – количество циклов включения и отключения накопителя, включая резкие обесточивания (некорректное завершение работы).
(ID 170) Used Reserved Block Count – количество использованных резервных блоков для замещения повреждённых.
(ID 171) Program Fail Count – подсчёт сбоев записи в память.
(ID 172) Erase Fail Count – подсчёт сбоев очистки ячеек памяти.
(ID 174) Unexpected Power Off Count – количество некорректных завершений работы (сбоев питания) без очистки кеша и метаданных.
(ID 175) Program Fail Count Worst Die – подсчёт ошибок сбоев записи в наихудшей микросхеме памяти.
(ID 176) Erase Fail Count Worst Die – подсчёт ошибок сбоев очистки ячеек наихудшей микросхемы памяти.
(ID 178) Used Reserved Block Count worst Die – количество использованных резервных блоков для замещения повреждённых в наихудшей микросхеме памяти.
(ID 180) Unused Reserved Block Count (SSD Total) – количество (или процент, в зависимости от типа отображения) ещё доступных резервных блоков памяти.
(ID 187) Reported Uncorrectable Errors – количество неисправленных ошибок.
(ID 194) Temperature – температура накопителя.
(ID 195) On-the-Fly ECC Uncorrectable Error Count – общее количество исправляемых и неисправляемых ошибок.
(ID 196) Reallocation Event Count – количество операций переназначения.
(ID 197) Pending Sector Count – количество секторов, требующих переназначения.
(ID 199) UDMA CRC Error Count – счётчик ошибок, возникающих при передаче данных через SATA интерфейс.
(ID 201) Uncorrectable Read Error Rate – количество неисправленных ошибок для текущего периода работы накопителя.
(ID 204) Soft ECC Correction Rate – количество исправленных ошибок для текущего периода работы накопителя.
(ID 231) SSD Life Left – индикация оставшегося срока службы накопителя на основе количества циклов записи/стирания информации.
(ID 241) GB Written from Interface – объём данных в ГБ, записанных на накопитель.
(ID 242) GB Read from Interface – объём данных в ГБ, считанных с накопителя.
(ID 250) Total Number of NAND Read Retries – количество выполненных попыток чтения с накопителя.
Пожалуй, на этом закончим список. Конечно, для других моделей атрибутов может быть больше или меньше, но их значения в рамках производителя будут идентичны. А расшифровать значения достаточно просто и обычному пользователю, тут всё логично: увеличение количества ошибок – хуже диску, снижение резервных секторов – тоже плохо. По температуре – всё и так ясно. Каждый из вас сможет добавить что-то своё – это ожидаемо, так как полный список атрибутов очень велик, а мы перечислили лишь основные.
Паранойя или трезвый взгляд на сохранность данных?
P.S. В случае возникновения проблем с SSD подорожник всё-таки не поможет 🙁
Для получения дополнительной информации о продуктах Kingston обращайтесь на сайт компании.
Чего можно ждать от SD Express и чего пока не стоит: первый опыт с картой Smart Gear 256 ГБ и ноутбуком
Формат MultiMediaCard разрабатывался в свое время (как и следует из названия) в первую очередь для нужд бытовой электроники – откуда компактность и ограниченный, но простой интерфейс. На тот момент в компьютерном мире в основном господствовали параллельные шины – способные передавать за такт синхронизации как минимум один полный байт. Тут же ограничились чисто последовательным, но при частоте 20 МГц это способно было «прокачивать» порядка 2 МБ/с. Однако позднее разработчики поняли, что пересолили – потребности в скорости и емкости карт памяти в этом мире росли очень быстро. Цена флэш-памяти не менее быстро снижалась, что провоцировало эту самую емкость быстро наращивать. А это давало возможность решать все более сложные задачи – что сильнее подстегивало требования к емкости и скорости. В общем, следующим шагом был уже последовательно-пакетный интерфейс карт Secure Digital – до четырех бит за такт при частоте 25 МГц, т.е. в пять раз больше, чем у MMC. Позднее некоторые компании пытались вдохнуть в последний новую жизнь, внедрив аж восемь линий и частоту до 52 МГц – но было уже поздновато. SD постепенно становился основным стандартом на рынке, чему также поспособствовало удвоение скорости в версии 1.1 и фактическая отмена ограничений на емкость в SD 2.0. Первые версии позволяли адресовать каждый байт данных – при разработке казалось, что это может пригодиться если не для памяти, то для более сложных устройств, использующих SD-шину. Но при 32-разрядной адресации это обеспечивало лишь максимум 4 ГБ емкости – что стало недостаточным уже во время жизни стандарта. Поэтому в версии 2.0 перешли к секторам по 512 байт – как и в большинстве компьютерных носителей информации, типа жестких дисков, SSD и т.п. Это позволило повысить теоретическую емкость уже до 2 ТБ – что до сих превышает самые ходовые номиналы. Рано или поздно мы до этого потолка дорастем. Но проблем он не составит – начиная с версии 7.0 отодвинут до 128 ТБ.
Еще одной важной вехой в развитии стандарта была версия SD 3.0 – начиная с которой «классический» интерфейс был фактически заменен на шину UHS (оставшись лишь для совместимости). С этого момента и физических линий данных стало четыре, эффективная тактовая частота увеличилась до 208 МГц, а напряжение на сигнальных линиях снизилось с 3,3 В до 1,8 В. В принципе, большинство современных SD-карт и хостов – именно SD 3.0 / UHS-I, поскольку в быту обеспечиваемых 104 МБ/с (в теории – на практике порядка 90 МБ/с) и 2 ТБ емкости достаточно. В смартфонах и планшетах, например, старшие режимы вообще редко используются – достаточно SDR25 (практически с той же скоростью, что была еще в SD 1.1). Да и емкость самых продаваемых карт microSD вообще до сих пор составляет лишь десятки гигабайт. Полноразмерные карты чаще используются в фото- и видеокамерах, однако и в последних больше требований к емкости – но не к скорости. Просто потому, что бытовые модели обычно снимают видео с битрейтом 100-150 Мбит/с, что позволяет ограничиваться картами класса V30 (с устоявшейся скоростью записи 30 МБ/с), и лишь для камер с разрешением 8К (коих большинство пока и в руках-то не держало) рекомендован V90 – что тоже, в принципе, укладывается в ограничения UHS-I.
Вот для фотографий большая емкость не нужна – а скорость иногда да. Дело в том, что там нет сплошного небыстрого потока – зато каждый кадр может быть и относительно большим. А иногда нужно сделать серию из нескольких кадров, после чего и успокоиться. Эту проблему решали и в незапамятные времена (несмотря на тогдашние скорости носителей) – при помощи большого DRAM-буфера. Правда емкость его ограничена, так что быстрая запись важна. В идеале – со скоростью съемки: тогда можно реализовать и «бесконечную серию». И даже отказаться от больших буферов – которые не бесплатны, да еще и энергию жрут.
Изначально казалось, что магистральной линией развития будет ускорение UHS-интерфейса. На деле все оказалось не так просто – уже в SD 4.0 потенциальная скорость была повышена до 312 МБ/с (UHS-II), а в SD 6.0 – и до 624 МБ/с (UHS-III), но для этого потребовались, соответственно, второй и третий ряды контактов. В общем, дорого и ограничено – да и массовому потребителю не требуется. В итоге карты и устройства UHS-II встречаются, а вот UHS-III я лично вживую даже и не видел.
Тем более, буквально сразу после появления спецификаций SD 4.0 компьютерные накопители начали переходить со старой связки SATA/AHCI на протокол NVMe поверх интерфейса PCIe. Нашлись светлые головы, которые решили проверить – а не подойдет ли новый стандарт для карт памяти Secure Digital? Оказалось, что второго ряда контактов, предложенного в рамках SD 4.0 UHS-II вполне достаточно для одной линии PCIe, а трех (SD 6.0 UHS-III) – для двух линий. Но даже одна линия PCIe Gen3 это уже порядка 1 ГБ/с в теории (и не меньше 850 МБ/с на практике) – т.е. скорости сразу выше, чем у UHS-III, контактов меньше, контроллеры разрабатывать проще (берем сделанный для SSD и отбрасываем лишнее), полная унификация. Именно этот режим работы был заложен в SD 7.0 – вместе с, напомню, емкостью до 128 ТБ. А спецификация SD 8.0 была принята в прошлом году уже после появления PCIe Gen4 – так что ничего удивительного в том, что стандартизует она этот самый Gen4 x2 с его безумными 4 ГБ/с в теории. В общем, учитывая, что Gen4 x2 = Gen3 x4, получаем мы сменный носитель данных с потенциальными скоростными возможностями недавно топового SSD. Причем в габаритах стандартной SD-карты – т.е. лишь немногим больше M.2 2230, а не как у «полного» 2280. Такой накопитель может быть интересен уже не только в фото / видео / мобильниках.
Еще одна приятная особенность новых стандартов – совместимость с «классическими» картами на уровне UHS-I, т.е. самого массового на сегодня. А это значит, что некоторые его плюсы можно получить и вместе со старой техникой. Например, отснимаем карты уже имеющимся фотоаппаратом – а потом сбрасываем фотки на ноутбук со скоростью 800 МБ/с. Достаточно правильного картовода в последнем. С чем до последнего времени были проблемы, что естественно – от момента принятия стандарта до появления реализующих его устройств всегда проходит какое-то время.
Кстати, и карт это тоже коснулось: спецификации SD 7.0 опубликованы в 2018 году, а Phison карты SD Express анонсировал только в феврале этого года. Недавно как раз и ноутбуки подъехали, причем буквально одновременно Acer, Asus и MSI. MSI GE76 Raider 11UH-440RU до нас добрался первым. Обзор будет, а вкратце – это мощная машинка на восьмиядерных Tiger Lake-H и с GeForce RTX 3070 или 3080. Дисплей во всех моделях – 4К 17,3” с частотами обновления от 120 Гц. Стоит, естественно, как не сильно убитый автомобиль среднего класса 🙂 Но это общая беда современных технологий и не только их – со временем поддержка карт SD Express доберется и до устройств массового назначения.
Во всяком случае картовод здесь от Realtek – а этот производитель предпочитает демократические ценники. Судя по ID – RTS5261 двухлетней давности. Но свежее пока ничего нет, да и это-то хорошо – RTS5260 (который UHS-III) помнится по выставкам повозили, всем показали, на чем дело и закончилось. Этот в серию пошел хотя бы.
Карточка от Smart Gear. На самом деле, особого выбора нет – внутри Phison PS5017, все такие карты делаются под непосредственным контролем Phison в двух вариантах – 256 и 512 ГБ. Какая память – пока любые утилиты пасуют.
Контроллер-то определяется легко – например, можно также по VID и PID (хотя есть уже и другие варианты). Для системы карта в соответствующем слоте – просто NVMe SSD с совершенно стандартным системным драйвером. Но внешне карту «выдает» только маркировка и указанные скорости записи и чтения – обратная сторона такая же, как у любых SD UHS-II, кои так и не стали основным стандартом, но встречаются достаточно часто. Но скорость намного выше – что и сделало UHS-III совсем мертворожденным.
Хотя какая скорость на самом деле – надо проверить. Понятно, что карты на 256 и 512 ГБ все-таки не для потокового видео: емкости не те. И, что характерно, никаких упоминаний ни о V90, ни о, хотя бы, V30 на этикетке нет. При этом получить стабильные 500 МБ/с от SSD на 256 ГБ практически невозможно – я такое из более-менее актуальных продуктов только у Samsung 860 Pro видел, который на MLC. Уже для TLC такой емкости в любом случае без SLC-кэширования не обойтись – но для фотоаппарата подобный режим работы подходит как нельзя лучше: данные пишутся не потоком, а относительно небольшими порциями с паузами.
Посмотрим – что нам покажет AIDA64. Кэш видим – размером 30 ГБ, т.е. чуть больше 10% емкости. В его пределах обещанные 500 МБ/с выполнены и перевыполнены. Дальше скорость валится примерно до 45 МБ/с, что тактично намекает на QLC – уже пара кристаллов TLC максимальной терабитной емкости на одном канале дала бы порядка 60 МБ/с, а тут и канала два. Кстати, на сайте Phison для PS5017 упоминается только 3D QLC, но никакой TLC (хотя в ранних рекламных материалах было 3D TLC/QLC). Все сходится.
Ну а потом контроллеру разгребать данные становится совсем тяжело, так что скорость начинает плавать и вовсе в диапазоне 10-20 МБ/с. Что, впрочем, может быть и следствием тротлинга – все-таки охлаждать слоты SD специальным образом пока не принято. С этим попробую поэкспериментировать еще по возможности. Но процесс записи я все-таки до половины емкости карты довел – это нужно будет на следующем шаге.
Чтение. Вторая половина – «непрописанные» блоки, которые реально не читаются. В итоге измеряем скорость интерфейса – 780 МБ/с. На карте пишут про 870 МБ/с, но это явно идеальный случай. Как раз столько должна выдавать одна линия PCIe Gen3 – но у нас между картой и контроллером еще посредник в виде картовода, который, похоже, скорость немного режет. Впрочем, некритично – на фоне массового UHS-I и даже редкого UHS-II все равно превосходно. Тем более, что аналогичная скорость получается и в первой половине графика – где данные «честно» читаются. Т.е. переписать на компьютер файлы на подобных скоростях – вполне реально. А буфер фотоаппарата на карту будет сбрасываться со скоростью 500 МБ/с, причем десятки гигабайт DRAM в ЦФК (по крайней мере, сколь-нибудь распространенные) насколько знаю никто и не ставит. В общем, схема с недорогой памятью и SLC-кэшем подходит идеально. Для видео нужно ориентироваться хотя бы на карты по 512 ГБ (что и логично – учитывая его объемы), но и это даст в лучшем случае V30, а не V60/V90. Впрочем, со съемкой 4К-видео при битрейте до 100 Мбит/с и младшая карта очень может быть, что и справится. А высокая скорость чтения при этом тоже пригодится для сброса данных на компьютер.
Для наглядности – вот так вот любые карты UHS-I ведут себя в любом соответствующем картоводе в лучшем случае. Теоретически-то до 104 МБ/с – практически ровно 90 МБ/с. Меньше при неудачном стечении обстоятельств получиться может, больше – нет. UHS-II скорость может утроить – SD Express повышает ее почти на порядок. Уже сейчас – дальше можно ожидать внедрения PCIe Gen4 в количестве одной (с теми же двумя рядами контактов) или даже двух (максимальная «трехрядная» конфигурация в рамках SD 8.0) линий, так что счет можно будет уже и в гигабайтах в секунду вести. И совместимость есть — как и обещали.
Но не стоит, конечно, рассчитывать, что SD-карты смогут полностью или частично заменить внутренние SSD – слишком уж разное изначально назначение, да и емкости тоже. Нынешние продукты лучше всего подходят фотографам. Причем пригодиться могут уже сейчас – даже если сам фотоаппарат поддерживает только UHS-I, потом скопировать фотографии можно быстрее. А то и вовсе просто поработать с ними без копирования на внутренний диск – скорости это уже вполне позволяют. Но под видео их пока особо никто не рассчитывал. Понятно – почему: на данный момент видеографу лучше, все же, инвестировать в объем, а не в скорость. Приличная карта UHS-I V30 на 512 ГБ нынче стоит дешевле, чем UHS-II 256 ГБ – а SD Express уж точно не с чего быть дешевле второй. Особенно первое время. А дальше – посмотрим. Но то, что положение дел вообще сдвинулось с мертвой точки – не может не радовать, конечно.