Большой архив статей, книг, документации по программированию, вебдизайну, компьютерной графике, сетям, операционным системам и многому другому
 
<Добавить в Избранное>    <Сделать стартовой>    <Реклама на сайте>    <Контакты>
  Главная Документация Программы Обои   Экспорт RSS E-Books
 
 

   Компьютеры -> Видео -> Невиданное видео


Невиданное видео

Видеокарты среднего уровня, а именно — работающие на шине PCI Express
модели GeForce 6600 — будут нынче в центре нашего внимания.

Достойная смена

Не так давно мы с вами рассмотрели возможности новых ускорителей трехмерной графики, которые создаются на базе чипов NV40 — речь шла о видеокартах GeForce 6800GT и 6800Ultra (см. статью «Хорошей видяхи должно быть много» МК № 04(331) 2005 г.). Однако видеокарты такого класса относятся к разряду, так сказать, весьма дорогих устройств. Конкурентная борьба на рынке видеокарт предполагает наличие у производителя соответствующих продуктов для каждого ценового сегмента рынка. Особенно удачным считается представление хороших моделей в бюджетных стоимостных нишах.



Ведь именно на такие относительно недорогие карточки приходится основной потребительский спрос, именно они «делают большие деньги». О такого рода устройствах мы сегодня и поговорим, а если конкретно, то речь пойдет о семействе видеокарт GeForce 6600 на базе новых графических чипов от NVIDIA.

Рассматриваемые карточки призваны стать достойной сменой для карточек среднего уровня, но «старшего» поколения, таких как GeForce FX 5900/5900XT, PCX 5900/5950, GeForce FX 5700/ 5700Ultra, PCX 5750 и иже с ними. Благо, на сегодняшний день доступны как PCI Express, так и AGP варианты видеокарт линейки GeForce 6600.


Представление из себя

Для начала, как заведено, поговорим о том, что же из себя представляет GeForce 6600. Используемый в таких видеокартах графический чип NV43 оказался первым реальным GPU от NVIDIA, обладающим поддержкой шины PCI Express (PCIE). До этого все PCIE модели видеокарт на базе чипов NVIDIA использовали специальную микросхему-мост для «общения» GPU с интерфейсом PCI Express.

По основным своим функциональным особенностям видеоакселераторы линейки GeForce 6600 близки к семейству GeForce 6800. В частности, поддерживаются такие продвинутые возможности как, например, пиксельные и вершинные шейдеры 3.0, улучшенная обработка теней — UltraShadow II, работа с высоким динамическим диапазоном — HPDR, и т.д. (подробнее об этих технологических новшествах см. в статье «Быстрее, выше, цветнее», МиК № 37(147), 39(149), 41(151), 42(152) 2004 г.). Впрочем, конечно же, GeForce 6600 вовсе не идентичен GeForce 6800. Поскольку новый графический процессор NV43 создавался для видеокарт среднего уровня, то необходимость снижения конечной стоимости изделий на его базе заставила разработчиков сократить набор возможностей этого GPU по сравнению с NV40. У GeForce 6600 осталось только 8 пиксельных конвейеров, по одному текстурному блоку на каждом, и 3 вершинных конвейера — т.е. фактически это только половина от графического ядра GeForce 6800GT или 6800Ultra.

Соответственно, почти вдвое сократилось и количество транзисторов в чипе NV43 — в нем их примерно 143 миллиона, по сравнению с 220-ю миллионами у NV40.


Два сапога — не пара

На текущий момент линейка видеокарт на базе чипов графических ускорителей NV43 включает две разновидности — это модели GeForce 6600 и GeForce 6600 GT.

GeForce 6600 представляет собой базовую, менее производительную модификацию. По набору возможностей обработки 3D графики этот вариант ничем не отличается от более быстрой GT-модели. Зато карточки GeForce 6600 не в лучшую сторону отличаются частотами, на которых способны функционировать их GPU и видеопамять. Графический процессор у такой модели должен работать в 3D режиме на частоте 300 МГц. Относительно медленная DDR память, которой комплектуются подобные видяшки, будет, в зависимости от желания производителя, работать на частотах DDR 500, 600 или 700 МГц (возможны и иные варианты). Карточки класса GeForce 6600 официально не должны поддерживать технологию SLI (это когда две PCIE видеокарты дружно работают в паре на одной системной плате).

В свою очередь вариант GeForce 6600 GT — более производительный. Его графический процессор в 3D режиме должен работать на частоте 500 МГц. Для этой модели уже предусмотрено использование более быстрой видеопамяти GDDR3, частота работы которой должна быть не ниже DDR 1000 МГц. Также модификацией GeForce 6600 GT поддерживается совместная работа двух аналогичных видеокарт в SLI режиме.

На обе вышеназванные модификации видеокарт может быть установлено до 256 Мб видеопамяти (хотя обычно устанавливается 128 Мб), которая работает по двухканальному интерфейсу с шириной шины данных в 128 бит.

При изготовлении графических чипов семейства GeForce 6600 (NV43) используется 0.11 мкм техпроцесс (GPU для видеокарт линейки GeForce 6800 производятся по 0.13 мкм техпроцессу). Это означает, что реальная стоимость чипов NV43 гораздо ниже, чем у NV40, ведь с одной кремниевой пластины можно получить гораздо больше графических ядер, особенно принимая во внимание меньшие размеры самого ядра GPU NV43 из-за уменьшившегося содержания в нем конструктивных элементов.

Кроме того, отчасти и благодаря более передовой технологии изготовления, энергопотребление графических чипов NV43 является низким (в целом видеокарта GeForce 6600 GT должна потреблять не более 70 Вт), что позволяет карточкам семейства GeForce 6600 обходиться без использования разъема для дополнительного питания. AGP варианты видеокарт семейства GeForce 6600 работают по этому интерфейсу исключительно при использовании микросхемы HSI — двустороннего PCI Express-AGP моста.


Представитель

Честь видеокарт семейства GeForce 6600 будет отстаивать модель Gigabyte GV-NX66T128VP, что в переводе на более понятный язык может звучать как GeForce 6600GT 128 Мб VIVO ( рис. 1). Рассчитана данная видеокарта на работу по «родному» интерфейсу PCI Express, она имеет стандартные разъемы VGA и DVI-I для подключения мониторов, а также универсальный VIVO (видеовход и видеовыход) разъем.
нажмите для увеличения
[Нажмите для увеличения]

О комплекте поставки данной модели говорить долго не придется — он самый что ни на есть ОЕМ-ный: в антистатическом кулечке находятся сама видеокарта и один компакт-диск. Это все. На CD есть драйвер, софтина Gigabyte VGA Utility Build 2004.09.17 (возможно, у вас будет вариант посвежее — но маловероятно) и лицензионный CyberLink PowerDVD 5.

Честно говоря, комплект поставки производит впечатление явно «недоделанного». Несмотря на наличие VIVO разъема (по крайней мере, иначе этот 9-контактный разъем я идентифицировать не могу :-)), в комплекте нет ни единого (!) видеокабеля, что, по-моему, огромный минус. Это при том, что розничная цена рассматриваемой видеокарты находится на вполне не низком и типичном для таких карточек уровне — $230. Кроме того, в наличии полное отсутствие руководства пользователя — его нет ни в бумажном, ни в электронном виде. Ну и скажите, как рядовой пользователь, особенно начинающий, должен разбираться, что это за разъемы находятся на купленной видеокарточке?

Да, комплект поставки, мягко говоря, не производит хорошего впечатления. Зато по остальным своим базовым характеристикам видеокарта Gigabyte GV-NX66T128VP вполне на должном уровне. По умолчанию графический процессор работает на 500 МГц в 3D режиме (300 МГц в 2D). Память трудится на DDR 1120 МГц. Однако ж! На плате установлена GDDR3 память Samsung со временем доступа 1.6 нс. А это, ребята, как ни крути, а 1250 МГц номинальной рабочей частоты. Кстати, многие производители видеокарт ставят на свои модели GeForce 6600GT именно 1.6 нс память. Почему частота памяти занижена? Возможно, Gigabyte решил создать для пользователя иллюзию хорошей разгоняемости видеопамяти на своей карточке. Но вероятнее, проблема, из-за которой память работает на столь низкой частоте, кроется в другом, о чем мы скажем далее. Видеопамяти этой самой, естественно, 128 Мб.

Как и положено, на данной видеокарте присутствует разъем ( рис. 2) для подключения специального коннектора, соединяющего между собой два аналогичных устройства, работающих в режиме SLI.


нажмите для увеличения
[Нажмите для увеличения]
И тишина…

Как вы, вероятно, заметили, глядя на рис. 1, карточка Gigabyte GV-NX66T128VP имеет довольно оригинальную систему охлаждения — она пассивная, то есть вентилятора, обдувающего радиатор, нет. Вместо этого видеокарта буквально обвешана радиаторами с двух сторон ( рис. 3). Температура от графического процессора отводится с «тыльной» стороны платы как еще одним независимым радиатором зеленого цвета (материал, вероятно, алюминиевый сплав), так и дополнительным «медным» кулером (тоже, естественно, какой-то сплав), соединенным с основным радиатором (состоящим из такого же материала) тепловой трубкой. Именно эта трубка, насколько я могу судить, напрямую соприкасается с открытым ядром графического чипа, затем уже передавая тепло обеим радиаторам. Абсолютно точно я утверждать это не могу, так как мне категорически запретили снимать систему охлаждения с платы, но, судя по косвенным признакам, система теплоотвода реализована именно так.


нажмите для увеличения
[Нажмите для увеличения]

Трудно сказать, чем было обусловлено решение Gigabyte отказаться от активной системы охлаждения. Конечно же, это не желание сэкономить на вентиляторе. Вероятнее всего, создание такой конструкции системы охлаждения было вызвано желанием сделать «самую тихую» видеокарту. Ведь действительно — если на карточке нет вращающегося вентилятора, то она работает абсолютно бесшумно (могут, конечно, «пищать» элементы электроники, но это бывает крайне редко, и к данной видеокарте не относится). Безусловно, любители тишины при работе за компьютером высоко оценили бы «шумовые характеристики» данной модели! Однако вариант пассивного охлаждения довольно мощного графического ускорителя имеет и свои неприятные особенности.

Цена «молчания»

Как известно, современные графические чипы имеют встроенный мониторинг температуры. Так вот, уже при обычной работе в 2D режиме графический чип видеокарты Gigabyte GV-NX66T128VP разогревался до 75С ( рис. 4), и даже более. Работая в 3D режиме, видеокарта вообще демонстрировала «выдающиеся» температурные показатели — типичная температура чипа находилась в районе выше 100С ( рис. 5), иногда переваливая за 115С, что заставляло индикатор температуры стыдливо краснеть. Длительного тестирования в 3DMark03 и 3DMark05 карточка попросту не выдерживала — компьютер уходил на перезагрузку. Впрочем, в реальных игрушках видеокарта «терпела».


нажмите для увеличениянажмите для увеличения[Нажмите для увеличения]

Это, конечно, хорошо, что в Gigabyte додумались ограничить критическую температуру GPU значением 145С, но как это сказывается на самом чипе, на сроке его службы? И на сроке службы остальных компонент видеокарты? Смею вас заверить, уже после недолгой работы в 3D режиме радиаторы на карточке разогревались так, что буквально обжигали пальцы. Установленный в первом слоте, по соседству с видеокартой, модуль памяти подвергался настолько резкому перепаду температур (на участке модуля памяти, близком к «тыльному» радиатору видеокарты, микросхемы были просто раскалены), что это заставило меня переустановить модуль подальше от пышущей жаром видеокарточки. А каково приходится микросхемам памяти на самой видяшке? Думаю, несладко, хотя сами охлаждающие радиаторы непосредственно и не касаются чипов памяти. Не в этом ли, кстати, кроется причина сниженной частоты работы видеопамяти?

Тут еще надо принимать во внимание, что у меня видеокарта работала «на открытом воздухе», зимой, когда в помещении прохладно. А как ей будет внутри тесного корпуса летом? Просто страшно представить. Поэтому весьма вероятно, что за «тишину» придется расплатиться слишком дорого — что-нибудь да «сгорит». Чтобы этого не случилось, после приобретения данной модели видеокарты, я считаю, практически обязательно нужно осуществить установку хотя бы одного дополнительного вентилятора, обдувающего радиатор на лицевой стороне карточки (таковой стороной я буду считать ту, куда вынесены все ключевые электронные компоненты платы — рис. 1). После того, как я прицепил к карточке довольно скромный вентилятор ( рис. 6), девайс буквально преобразился. Радиаторы больше не жгли пальцы, типичная рабочая температура в 2D режиме опустилась до 64С (т.е. в среднем снизилась на целых 10С, что очень неплохой результат), а в «тяжелом» 3D режиме температура GPU уже не превышала 90С. Видеокарта стала легко выдерживать любую нагрузку тестовыми приложениями.


нажмите для увеличения
[Нажмите для увеличения]

Ну что ж, после того, как мы сделали условия работы видяшки более-менее приличными, самое время оценить ее в работе. Начнем мы, естественно, с обзора той самой утилиты Gigabyte VGA Utility Build 2004.09.17, которую столь любезно приложила к своей видеокарте компания-производитель.

Утиль

Если коротко, то именно так я назвал бы софтину Gigabyte VGA Utility Build 2004.09.17

Из «эксклюзивных» функций быстрого доступа можно отметить Zoom Out и Zoom In, которые соответственно уменьшают и увеличивают изображение на экране монитора. Уменьшение размеров возможно только после того, как изображение было увеличено по сравнению со стандартным. При увеличении изображения его края начинают «выползать» за рамки экрана. Кому могут понадобиться подобные функции, я, честно говоря, не знаю.

Еще одна нетипичная фича называется @VGA — это быстрый доступ к программе перепрошивки BIOS видеокарты ( рис. 10). Сама по себе перепрошивка — вещь полезная, не спорю. Однако зачем делать доступ к сей ответственной процедуре столь общедоступным для всех пользователей компьютера, я, признаться, понять не могу. Весьма спорно.


нажмите для увеличения
[Нажмите для увеличения]

Быстрый доступ к утилите V-Tuner2 хорош, но сама утилита (рис. 11) сильно разочаровывает. Судите сами: в ней можно менять рабочие частоты графического процессора и видеопамяти, да и то, я бы сказал, в «неудобоваримом» виде — пользователю не дается четкого пояснения по 2D и 3D режимам (галочка в опции Smart Tune Mode позволяет показать частоты именно для 3D режима). Можно сохранять некое подобие профилей с частотами. К сожалению, мониторинга температуры, который был бы для этой видеокарты очень даже уместен, утилита не ведет. Хм.. Ведь не из-за двух же доступных скинов эта софтина нужна пользователю! В общем, программулина, в принципе, ненужная. Она может быть востребована разве что начинающими пользователями, да и то на первом этапе знакомства с принципами оверклокинга компьютера.


нажмите для увеличения
[Нажмите для увеличения]

Утилита Color Correction приводит нас в следующее окошко. Ничего нового, более того, это гораздо более бедное по возможностям настройки окно, если сравнивать с аналогичным окошком в драйверах ForceWare. Слабо, прямо скажем. Пункт VGA Information не сообщит нам ничего нового, чего бы мы сами не знали после установки данной видеокарты в ПК (рис. 13)

.
нажмите для увеличения
[Нажмите для увеличения]

Выбор пункта About GIGABYTE приведет нас на сайт производителя, ну а назначение всех остальных пунктов в выпадающем меню говорит само за себя. Вызывают все эти пункты, по большей части, стандартные системные окна для осуществления соответствующих настроек. Из всего перечня в выпадающем меню самым полезным мне показался пункт Uninstall VGA Driver/Utility

Работа не волк…

Ну, а теперь переходим к самому интересному — смотру производительности.

Результаты GeForce 6600GT приведены как результаты работы видеокарты Gigabyte GV-NX66T128VP с частотами 500 МГц для графического процессора и DDR 1250 МГц для памяти (напоминаю, что это номинальная частота работы памяти со временем доступа 1.6 нс).

Вариант GeForce 6600 получен «торможением» вышеназванной модели видеокарты до частот 300 МГц для GPU и DDR 700 МГц для памяти.

Как принято, пару слов о тестовой платформе. Она у нас такая. Процессор Intel Pentium 4 Еxtreme Edition 3.46 ГГц, работающий с частотой 3.71 ГГц на плате Intel Desktop Board D925XECV2 (чипсет Intel 925XЕ), системная шина разогнана до 1141 МГц; 512 Мб DDR2 533 МГц памяти, работающей на частоте 570 МГц с таймингами 3-3-3-12, вольтаж повышен до 2В (при меньшем напряжении память не работает с указанными таймингами на приведенной частоте), память работает в одноканальном режиме; жесткий диск SATA Maxtor MaXLine III 250 Гб, 7200 об/мин, 16 Мб кэш; операционная система Windows XP SP2; драйвер видеокарты ForceWare 66.93, DirectX 9.0c.

Остальные приведенные в статье показатели для PCIE видеокарт получены на этой же платформе, но при использовании 1024 Мб DDR2 памяти, работавшей на той же частоте в двухканальном режиме, но с таймингами 4-4-4-12. Согласен, одноканальный режим внес свои «поправки» в тестовые результаты, однако придется ими пренебречь. Да и не так уж медленна одноканальная DDR2 память с частотой 570 МГц при таймингах 3-3-3-12. В подтверждение своих слов привожу скриншоты, полученные в тестовой программе Everest V2.00.226: скорость чтения из памяти — рис. 14, скорость записи в память — рис. 15, латентность — рис. 16. Как видим, по всем показателям наша одноканальная DDR2 570 МГц память находится среди лидеров, обходя по быстродействию многие двухканальные «варианты» работы с ОЗУ. Так что оперативную память в нашем случае никак нельзя назвать «слабым звеном».


нажмите для увеличениянажмите для увеличениянажмите для увеличения
[Нажмите для увеличения]

GeForce шагает впереди

На простом DirectX 7 тесте в 3 DMark03 (диаграмма 1) GeForce 6600 GT демонстрирует неплохой результат, на уровне своего прямого конкурента Radeon X700XT. Бюджетный GeForce 6600 также и в старых игрушках «не ударит в грязь лицом» — он однозначно шустрее своих «антиподов» Radeon X600Pro и Х600ХТ. При более существенной нагрузке на видеокарты и при использовании DirectX 8.1 картина распределения по уровню производительности в целом не меняется (диаграмма 2). Видим, что GeForce 6600 GT производительнее Radeon X700XT, однако лишь в тех 3D сценах, в которых не используются вершинные шейдеры. Когда дело доходит до интенсивной обработки вершинных шейдеров (тесты GT4 — Mother Nature, Vertex Shader), то благодаря своим шести вершинным конвейерам Radeon X700XT оказывается быстрее. GeForce 6600GT отстает на 20–30% (т.е. когда Radeon X700XT выдаст 100 fps, GeForce 6600GT будет способен лишь на 80–70 fps). Простой же GeForce 6600 сохраняет безоговорочное преимущество над Radeon X600Pro и Х600ХТ, как ни крути.
нажмите для увеличениянажмите для увеличения
[нажмите для увеличения]

По итогам тестов в 3DMark03 видно, что GT вариант видеокарты 6600 производительнее своего «простого» собрата, причем это преимущество можно назвать очень значительным — оно колеблется от 40 до 76% в зависимости от теста.

Если мы посмотрим на разницу в производительности видеокарт в более «свежем» наборе тестов 3DMark05 (диаграмма 3), который дает возможность сравнить быстродействие видеокарт в DirectX 9, то увидим, что и здесь разрыв между GeForce 6600 и GeForce 6600 GT сохраняется на том же значительном уровне. Преимущество GT модификации от 60 до 74% (то есть на каждые 100 fps, показанные GeForce 6600, модель GeForce 6600 GT «отвечает» 160–174 fps’ами). Опять же, GeForce 6600 GT превосходит Radeon X700XT по производительности, но лишь пока дело не доходит до интенсивной работы с вершинными шейдерами. В игровых сценах в среднем прослеживается явное преимущество GeForce 6600 GT, которое доходит до 11%. Лишь когда дело доходит до обработки пиксельных шейдеров версии 2.0, GeForce 6600 GT начинает уходить в значительный отрыв, опережая соперника примерно на 40%. Так что в играх, интенсивно использующих пиксельные шейдеры, GeForce 6600 GT наверняка позволит получить реальные преимущества в плане быстродействия.


нажмите для увеличения
[Нажмите для увеличения]

GeForce 6600 также успешно справляется с обработкой «тяжелых» DirectX 9 трехмерных сцен, однако его преимущество над Radeon Х600ХТ по итогам тестов в 3DMark05 уже не так очевидно. Если же загрузить видеокарты каким-нибудь реальным и графически «тяжелым» движком, например, как в Doom3 (диаграмма 4), то все снова становится на свои места — среди «средних» по производительности карточек лидерство по-прежнему удерживает GeForce 6600 GT. А Radeon X700XT отстает от него довольно ощутимо. Неплохо показывает себя GeForce 6600, быстродействие которого оказывается на уровне того же Radeon X700XT. (Результаты видеокарты Radeon X800XT мы просто не комментируем, так как это карточка из другой «весовой категории» — очень производительных, но и очень дорогих устройств).


нажмите для увеличения
[Нажмите для увеличения]

При тестировании в FarCry (диаграмма 5) имеем примерно такие же результаты распределения видеокарт по уровню быстродействия, как и в Doom3. Здесь все семейство GeForce 6600 однозначно «рулит» :-). Причем с ростом разрешения преимущество GeForce’ов только возрастает. Впрочем, при высоком разрешении GeForce 6600 уже начинает «сдавать позиции», а вот GeForce 6600 GT довольно уверенно держится выше уровня 60 fps.


нажмите для увеличения
[Нажмите для увеличения]

Соревнования видеокарт в старом добром Quake III Arena (диаграмма 6) приводят к следующим результатам. В низких разрешениях, когда быстродействие ограничено возможностями тесового ПК, показатели практически всех видяшек просто «заоблачные». Однако чем больше увеличивается разрешение в игре, тем ярче вырисовывается картина распределения видеокарточек по уровню производительности. И здесь лидер среди «средних» видеокарт не изменился — это все тот же GeForce 6600 GT, а с ростом разрешения его преимущество над конкурентами в процентном отношении только растет.


нажмите для увеличения
[Нажмите для увеличения]

При улучшении качества 3D изображения путем использования сглаживания и анизотропной фильтрации производительность видеокарт, естественно, падает. Однако GeForce 6600 GT при более «тяжелой» графике не сдает своих позиций лидера по производительности среди карточек среднего ценового сегмента, о чем свидетельствуют диаграммы 7 и 8. Видим, что при использовании оптимального режима повышения качества графики (2х сглаживание и 8х анизотропия) GeForce 6600 GT теряет 10–20% производительности (то есть утрачивается в лучшем случае один кадр из десяти, в худшем — один из пяти, что при невысокой частоте смены кадров будет уже ощутимой потерей). При дальнейшем повышении качества изображения (4х сглаживание и 16х анизотропная фильтрация) потери в производительности уже куда более существенны — до 40%. То есть там, где в обычном режиме было 100 fps, теперь, при 4хАА и 16хАF, можно получить лишь около 60 fps. А там, где в среднем было 60 fps, остается средних 36 fps, что уже явно на пределе играбельности.

нажмите для увеличениянажмите для увеличения
[нажмите для увеличения]
Весьма

Таким образом, подводя итог нашим изысканиям, можем смело заявить следующее. Безусловно, выпустив на рынок модели видеокарт GeForce 6600 и GeForce 6600 GT, компания NVIDIA осуществила значительный вклад в упрочнение своих позиций в сегменте карточек среднего ценового диапазона. При довольно высокой реальной производительности представленных решений подобные видяшки, несомненно, обретут популярность у многих пользователей — большинство которых просто не может себе позволить платить огромные деньги за нынешние видеокарты hi-end уровня. Таким образом, можно предсказать GeForce 6600 и GeForce 6600 GT светлое будущее :-).

За сим позвольте откланяться, и выразить благодарности:


• компании 1-ИНКОМ за видеокарту Gigabyte GV-NX66T128VP;
• украинскому представительству компании Intel за процессор Pentium 4 Еxtreme Edition 3.46 ГГц, плату Intel Desktop Board D925XECV2, DDR2 533 МГц память Micron, жесткий диск SATA Maxtor MaXLine III.

Автор: Владимир Сирота
Источник: журнал "Мой Компьютер" № 6 (333)

Ссылки по теме
По чем дают видеосигнал?
От гигапиксела до двух
Итоги года 2004: видео
TV-тюнинг для компьютера
Разгон видеокарт - неочевидные аспекты
Intel Graphics Media Accelerator 900 и Intel 915G: новое поколение встроенной графики
LКраткая история и основные принципы работы 3D-ускорителей
 

Компьютерная документация от А до Я - Главная

 

 
Интересное в сети
 
10 новых программ
CodeLobster PHP Edition 3.7.2
WinToFlash 0.7.0008
Free Video to Flash Converter 4.7.24
Total Commander v7.55
aTunes 2.0.1
Process Explorer v12.04
Backup42 v3.0
Predator 2.0.1
FastStone Image Viewer 4.1
Process Lasso 3.70.4
FastStone Image Viewer 4.0
Xion Audio Player 1.0.125
Notepad GNU v.2.2.8.7.7
K-Lite Codec Pack 5.3.0 Full


Наши сервисы
Рассылка новостей. Подпишитесь на рассылку сейчас и вы всегда будете в курсе последних событий в мире информационных технологий.
Новостные информеры. Поставьте наши информеры к себе и у вас на сайте появится дополнительный постоянно обновляемый раздел.
Добавление статей. Если вы являетесь автором статьи или обзора на тему ИТ присылайте материал нам, мы с удовольствием опубликуем его у себя на сайте.
Реклама на сайте. Размещая рекламу у нас, вы получите новых посетителей, которые могут стать вашими клиентами.
 
Это интересно
 

Copyright © CompDoc.Ru
При цитировании и перепечатке ссылка на www.compdoc.ru обязательна. Карта сайта.