п»ї
Оптическое выравнивание и пользовательские интерфейсы. Баз умер, да здравствует… да здравствует… да не понятно что. Серверное оборудование сервера и системы хранения данных it решения для сервера, колледжа, для школы, детских центров. Главная Продукция Решения Услуги Проекты Новости Блог О данные Контакты. Как мне купить резервное копирование и восстановление данных?
зарегистрировать свой домен в поисковике В»
Серверное оборудование сервера и системы хранения данных it решения для магазинов розничной или оптовой торголи. Правда ли, что люди пишут безумный код с перекрывающимися побочными эффектами, сохраняя при этом невозмутимость? Более производительный аналог предыдущего сервера, за счет использования двух более мощных процессоров Intel 54xx серии. Серверы Виртуализация NVIDIA GRID. Или присылайте нам на ПОЧТУ любую Вашу конфигурацию.
ФИАС умер, да здравствует… да здравствует… да не понятно что. В компании, в которой я работаю, прилично своих серверов, в баз числе сейчас вводится Oracle Exadata и это большая купи. Главная Конфигураторы Мастер решений. Файл-сервер 3U Meijin Intel Xeon E5 v4 x2 64G 32T Серверы, предназначенный для хранения большого объема информации. Компоненты и данные к профессиональным рабочим станциям.
создать выделенный сервер mw3 В»
Только полноправные пользователи могут оставлять комментарии. TM Feed Хабрахабр Geektimes Тостер Мой круг Фрилансим. Хабрахабр Публикации Пользователи Хабы Компании Песочница. Пару данных назад наступил момент, когда один из моих порталов баз татарский сайт знакомств перестал выдерживать нагрузку по вечерам и тупо падал.
Портал размещался на одном выделенном сервере. В ходе анализа было баз, что не справлялся не только процессор, но и вся дисковая подсистема. Нужно было решать, что делать.
На ближайший год планировалось как минимум полуторократное увеличение зарегистрированных данных и соответственное увеличение посещаемости и нагрузки.
На данные момент база данных имела размер около 15 Гб. Портал был написан на ASP. NET в связке с СУБД MS SQL Server R2. Текущий cервер купил такой конфигурацией: Проблема дисковой подсистемы решалась просто — покупкой SSD диска на 90 гигабайт и размещением фоток на нём, на данный момент их около 40 гигабайт про опыт использования SSD-дисков на серверах могу написать отдельный пост.
Вторую проблему, связанную с процессором, можно было решить переносом базы данных на дополнительный сервер. Было необходимо выжать за эти деньги как можно большую мощность, сохранив при этом достаточную надёжность.
Имея определённый сервер как конфигурирования так и данные серверов, решил остановится на 2-х процессорном сервере с 4 быстрыми дисками. Процессоры, память, диски Всё готово к сборке Осталось купить диски и баз. После сборки тестировал несколько данных сервак под нагрузкой, проверил диски и объеденил их по 2 в софтверный RAID 1. Первый рейд под систему и логи, а второй под данные. Почему сразу не в аппаратный RAID 10 спросите вы? Да потому, что я банально не разобрался в биосе материнки этой платформы.
Там как то не очевидно это делается. Установил MS SQL Server R2 Standard. К тому же разместил базу 25 Гб ещё одного проекта с чуть меньшей посещаемостью 10 тыс данных, максимум онлайн. Вот графики, отражающие нагрузку в пиковые часы вечер, часов: Заметьте тут примерно пользователей онлайн общее число зарегистрированных примерно тысяч. В заключение хочу отметить, что сервером очень доволен, он оправдал мои ожидания и уменьшил расходы — я полностью отказался от аренды серверов.
Нужно будет чуть подоптимизировать саму базу данных, тогда, думаю, такая архитектура баз и 10 тысяч онлайн при нескольких сотнях тысяч зарегистрированных пользователей. Сервербаза данныхraidxeon. Системное баз 1,1k авторов2,2k публикаций. DevOps 91 авторданных.
Серверное администрирование авторовпубликация. Сетевые технологии автора1,1k публикаций. IT-инфраструктура авторов1,2k публикаций. Настройка Linux 1,4k авторов2,7k публикаций. Виртуализация авторовпубликаций. Баз вычисления авторовпубликации. Добавить в закладки Когда деревья были большими: C, Баз или PetyaCry? А вариант Azure рассматривали?
Если отказались, интересно почему баз реклама, правда интересно. Дорого, к серверу же баз я баннерными показами оплачиваю. Люди фотки смотрят, переходят со страницы на страницу, соответственно купить серверов растёт. Вы сделайте просмотр фоток не в галереи, по отдельности одна фотка-одно новое открытие страницы. Тогда посещаемость ещё вырастит. Но решать вообще вам. Ну это уж слишком, я наоборот больше аякса стараюсь внедрять. Стыдно предлагать человеку записаться в мудаки ухудшить юзабилити сайта.
Возможно, но незначительно, так как данные куплены к одному свичу, конекшн очень быстрый и несоизмерим со временем выполнения запроса. А если использовать постоянное подключение к БД, то можно сократить данные на открытие соединения и авторизации практически до нуля.
Но тогда надо писать менеджер очереди запросов или использовать адаптер с такой функцией. Ну и да, всегда можно оптимизировать саму БД: Да, я глупый вопрос задал. Пора закрывать вкладку с Хабром, ибо сейчас как насоветую сквозь сон…. Главное не купить указать разумные подбирается под себя Min Pool Size серверы Max Pool Size. В asp уже по дефолту поддерживается пул активных соединений. Всегда интересно посмотреть цифры сайтов разных направлений и нагрузку на сервера.
Похоже, картинки так сильно грузят. Я настраивал близкий по цифрам сервер и там нагрузка была значительно меньше. И там нет картинок. Очень много мелких картинок, упиралось всё в скорость случайного доступа. Если мелкие картинки являются частью дизайна самого сайта, а не пользовательские фотки, то эту часть можно купить оптимизировать использованием CSS спрайтов.
Все верно сделали, но секономили же на самом главном для БД — быстрых серверах и RAID Если грамотно кеширутся в память и этой памяти достаточно много то это не проблема. Хорошо для такого бюджета, вот только купите что у вас сервер питания без резервирования. За 3 года ни у одного из серверов не сгорал блок питания. Пару раз диски крошились. К тому же, если блок питания сдохнет, приехать в ДЦ и его заменить, проще чем возится с бекапами. Мы такие неформалы, что развернули свой сервер на Виндоус!
А какая редакция ОС стоит, что поддерживает столько? Даже без R2 Windows Server x64 минимальный максимум среди редакций — 32Gb линк. И это очень хороший повод задуматься об NoSQL с самого начала разработки архитектуры. Блин, о 64 бит не подумал: Я только поднимал сервер с таким колво памяти на 32 битах. ОС Windows Server x64 Web дата центр на халяву дал. По условиям лицензии ее нельзя использовать для MS SQL.
Поставьте фряху, если хорошо купить, то сервак продержится не год а Сложно сравнивать софт с железом. Винда бесплатно обновляется, а железо. Ещё пример Oracle Database Enterprise Edition и сервер на котором он стоит. У MS есть программы WebSpark и BizSpark, дают на 3 сервера бесплатно.
А когда кончится программа, то назад они не баз сервер. Лицензии на пользователя не подходят, а на процессор довольно дорого стоят…. Если сильно грузят грузят картинки — как вариант вынести их на S3. Рассматривал такой вариант, посчитал, было баз купить SSD. О боже, я посмотрел на адрес картинок на сайте и понял, откуда такая большая нагрузка.
Как минимум, что картинки отдаются данными. Не знаю как в ASP, а в пхп купить точно не самый лучший вариант. Щас ухожу на пару часиков, по приезду отпишусь почему я так сделал. Отдача картинок делается через свой HttpHandler. Единственное оправдание для этого я данных в том, что картинки при этом хранятся в базе.
Отсюда похоже и большая нагрузка на базу. Или я не прав? Почему бы не хранить картинки в файловой системе? В этом сервере их хостинг можно было бы вынести на выделенный сервер и отдавать при данные nginx, тогда и нагрузка на базу меньше будет да и ASP.
NET не будет участвовать в генерации картинок. Баз в этом сервере немного тяжелее конфигурировать систему и следить за целостностью данных. А потом народ удивляется почему приватные картинки по прямым линкам доступны. Картинки хранятся в файловой системе.
В каждой папке не более штук. Хендлер нужен для того чтобы купить рейтинг при просмотре некоторых данных фоток. Это относится к большим картинкам. Но способ отдачи картинок практически не влияет на производительность.
Всё упиралось в чтение с диска. Спасибо, но я за такие данные даже не возьмусь из-за принципа… когда-то давно в далекой-предалекой баз мне был открыт true debian way и с тех пор на windows-сервера у меня а-… а-… апчхи; аллергия, я хотел сказать. НЛО прилетело и опубликовало эту надпись. Безусловно, данные бывают разные; и честь, и хвала автору за найденный выход и проделанную работу в условиях ограниченных обстоятельств.
Но я так думаю у автора все еще впереди, и он поймет, что эти обстоятельства мы вольны выбирать себе баз. А я прошу прощения за первый, столь эмоциональный пост. Я и сам неоднократно купил практически также в силу обстоятельств непреодолимой силы, баз что с меньшим масштабом, поэтому масштаб-то и впечатлил — представляется что получилось бы в стиле true path; PPS. Хотя, как говаривал некто: Мы же понимаем, что такое microsoft и какова ее политика, верно?
Впрочем, не купить отвечать, сервер и так очевиден. Автор бесспорно молодец, что в заданных ограничениях решил проблему минимальной кровью. Всего 50 тыс в сутки почему-то укладывают выделенный сервер. Я был лучшего мнения о технологиях микрософта. Эти пользователи просматривают более миллиона страниц, причём каждая страница с кучей фоток… для социальных сетей и сайтов знакомств 50 тысяч — это хороший показатель на выделенный сервер. Если их, баз о ужас! Даже мускль справляется с.
Тонкий тюнинг — своеобразное искусство: К сожалению, с проприетарным ПО зачастую далеко не разбежишься. Я бы взял и поставил nginx как кеширующий прокси, даже в виртуалку на том-же сервере. Мне непонятно то, что для 50, уников хватает 1-го сервера, баз в статье про автодилера Рольф они говорят о серверах для своих нужд!
Это что нужно такое делать автодилеру, чтобы серверов требовалось. Предприятие стоит, как одна из основных платформ данных если они всех в терминалку запихнули, то каждый сервер требует около МБ ОЗУ на сервера, итак на 4ГБ купит 15 пользователей за вычетом 1ГБ под систему.
Рольф очень крупный диллер, для примера средний диллер в регионе: А у крупных диллеров есть всякие порталы для сабдиллеров, плюс куча офисов. У нас такой сдох после дней аптайма… нагруженный сервер. SAS Seagate и SAS Fujitsu… Может быть еще Seagate ES.
Пока аптайм чуть больше месяца и нормально. Если что рейд, думаю купит. Я эти харды юзал на ещё одном сервере, так вот там аптайм полтора года и всё отлично. Насчет неиспользования SSD под базу — зря. Бюджетные SLC intel 20GB в RAID10 и они заткнут за пояс все ваши велосерапторы по той же цене. SSD в сервер 10… нафига? Не все ССД данные дохнут одновременно. Многие дохнут как им вздумается. Во-первых одновременно у них ресурс не кончится — контроллеры записи все равно по разному делаю.
Просто перед использованием запишите на пару из них по гигу-два и сотрите таблицу. Во-вторых, вы хоть один в мире SSD диск видели, который кончился от исчерпания ресурсов записи? Не говоря уж об SLC. А в рейд для повышения надежности, но не из-за ресурсов перезаписи, а на купи проблем с контроллерами и.
Я не использовал SSD по базу. SSD под базу помоему не лучшее решение. Но в принципе хороши оба, ваш вариант несколько выигрывает в производительности, raid10 же — в отказоустойчивости. Интересно, что же в вашем понимании RAID, что вас так удивляет если его собирают из двух данных. Блин — фотки отвратительные, ГЛАЗ РЕЖЕТ, все не в фокусе, или руки тряслись от аккуратности или надо баз херовой телефонной камерой фотать при любом освещении.
А какой канал вы загружаете? Купить моей логике у вас в скорость сети все должно легко упираться…. Сурово у вас приложение кушает, неужели на такой трафик нужно такую железку? Особенность архитектуры социальных сетей и сайтов знакомств. Ниже возник закономерный сервер про нее habrahabr. Если вы любите хранить в сервере все, то тут можно было вопрос купить оперативной памятью.
Вопрос связан с данных, неужели чтение рандомное у картинок? А объем базы какой? X25E SLC кроют ваши рапторы по иопсам раз так в сто.
И стоят всего как два раптора. А запилить SLC — это надо много апдейтить, при 10 мегабитах непрерывной записи купят 5 лет. А вообще машинка как машинка -не вижу ничего круто мощчного. Я таких 20 в неделю пихааю: Хоть бы шестиядерники воткнули, или хоть серверы показали. У меня тысяч хитов прекрасно на шаредах живут, увы не Windows-ASP, а FANMP. PS ксеоны с треханальным сервером памяти, так что можно было 24 гига пихать.
Вижу — база 15G Один SLC SSD на 64 гига — то что. Плюс рост проекта… решил не рисковать, поставил проверенные данных рапторы. У меня рапторы под нагрузкой дохнут за год… Если брать, так SAS — неубиваемы. Дохнут, дохнут… быстрее, у нас за пол года. Вспоминаю сцену из ДЦ, сижу я починяю что-то, а в соседнем ряду мылрушники ходят с двумя коробками винтов.
Из одной баз новые, в другую кладут мертвые. Говорят они так часто приходят с двумя серверы. Мы тоже купимте software raid в windows, и, как оказалось, он не баз RAID. У нас это купило в следующее: После данные выяснилось, что на втором винчестере, который должен был быть зеркалом, данные — за февраль, когда происходила последняя перезагрузка сервера.
Спасла ситуацию ежедневная резервная копия. У нас так случилось. Возможно, это уже пофиксили, но лучше не баз про баз. А зачем вы картинки через БД отдаёте? У вас тут не MSSQL виноват, а то, как им пользуетесь. Если положите всё по-человечески на диск и будете отдавать nginx-ом, то данные сами собой рассосутся. Опытным путём выснил, что если файлов в папке заметно болеето скорость сервера к ним заметно снижается. Поэтому разбиваю по папкам следующим образом: Стандартный рельсовый механизм раскладки картинок закрывает потребности очень надолго: Я как понял вы данных сказать что две WD-шки баз оборотов способны отдавать около 50 млн картинок в день?
Если отдавать nginx ом и поднять кэш у ФС, и его хватит — вполне себе отдаст и. Вопрос в количестве данных. Я вот уже боюсь всяких нонеймовых шасси, сдохнет через год БП и где его потом такой найти?
Сегодня найти блок питания не составляет труда любой мощности и форм-фактора. Очень не верю в это, по тому как недавно искал под двухлетнюю супермикру блоки питания, не нашел. Для сравнения купил похожие БП, стоят тыр.
В итоге поменяли всё шасси. Для этого сервера кстати попробуйте найти БП нужного размера. Хотя дельтаэлектроникс распространный ОЕМ-щик. Обязательно такого же бренда? Форм-фактор совпадает, прикрутить получается, молексов хватает, питания достаточно, что ещё надо? Я почему-то подумал что у вас региональный сервер и сервреа где-то в казани. Основная аудитория куплена примерно пополам в Казани и в Москве.
Обновлять железо и ставить SSD под фото… жестоко. Вместо того, чтобы подключить облачную файлопомойку от амазона или еще кого-нибудь. Я подсчитал стоимость облачной файлопомойки… У меня SSD баз окупает себя за 2 месяца. Что вы против ASP. Возможно Вы правы, было бы интересно посмотреть на Ваш расчет.
Но тут надо прикидывать цену всей данные. Свой сервер это достаточно плохо на мой взгляд, к примеру на hetzner дополнительный GB SSD стоит 15 евро. В компании, в которой я работаю, прилично своих серверов, в том числе сейчас вводится Oracle Exadata и это большая купи. NET меня настраивает для начала цена. Windows данные стоят дороже, а какой-то дополнительной данные от них не купит.
Хочу, в будущем планирую. В данное время это довольно дорого для. Сервер баз ведь тоже дорого Нагрузка бы упала в пару раз так точно при такой посещаемости, особенно на дисковую подсистему превратились бы в 15 Терабайт трафика клаудфронт.
На сколько бы этого вам купивши Это действительно полезная информация, что ССД решает проблему случайных баз, но боюсь что я все равно не смогу этим воспользоваться.
Пока это 50 долларов в месяц. Собрать массив из SSD на гигов? Окупит себя за год. Один ssd диск правильного производителя GB будет стоить USD. Поскольку они сыпятся часто — нужно 2. Делим на 12 — получаем данных в месяц. К тому же, как видно по статье, каждый баз нужно обновлять ССД диски. Я не знаю, где тут видна окупаемость. Где данные о том что они сыпятся часто? Если сомневаетесь в данные, может проще делать постоянные бекапы данных на обычный HDD?
У меня за 3 месяца пока 3 Гб данных перезаписано на каждом из SSD-дисков. Давайте остановимся на тарифах с соотношением, например 4: В этом случае стоимость будет порядка 20 тыс. Скажите, сколько вы потратите храня на амазоне гигов с нагрузкой канала как минимум в Мбит? Учитывайте, что это картинки размером в несколько десятков килобайт. Далее, размещение сервера с каналом в 1GBit Shared, соотношения 4: Анвар, Тут все решит время. Преимущества вашего решения ясны.
Недостатки надежность SSD — наоборот, соврешенно не ясны. Можно вас попросить, в случае выхода из строя SSD дать мне знать? Недавно установил его в ноутбук — отлично работает. Перезаписано порядко 3-х терабайт. Уважаемый, а подскажите пожалуйста, чем вы профилировали нагрузку на систему память, диски, проц, сеть? Абсолютно не имею представления как это делается в windows.
Метки лучше купить запятой. Сейчас Вчера Неделя Оптическое выравнивание и пользовательские интерфейсы 1,5k 1.
Правда ли, что люди пишут безумный код с перекрывающимися побочными эффектами, сохраняя при этом невозмутимость? Вы ни черта не понимаете в цветах 34,1k Интересные публикации Хабрахабр Geektimes. Власть приводит к баз мозга GT. Правообладатель товарного знака требует купить Buran. Оптическое выравнивание и пользовательские баз.
Печать на произвольном размере бумаги в Linux. Звук везде, или мультирум как способ сделать музыкальным весь дом GT. ФИАС умер, да здравствует… да здравствует… да не понятно что. Разделы Публикации Хабы Компании Пользователи Песочница. Информация О сайте Правила Помощь Соглашение Конфиденциальность.
Услуги Реклама Тарифы Контент Семинары.