Документ взят из кэша поисковой машины. Адрес оригинального документа : http://theory.sinp.msu.ru/pipermail/ru-ngi/2012q1/000488.html
Дата изменения: Wed Mar 28 21:30:20 2012
Дата индексирования: Tue Oct 2 03:22:32 2012
Кодировка:

Поисковые слова: clouds
[RU-NGI] Fw: Survey on vmem situation (fwd)

[RU-NGI] Fw: Survey on vmem situation (fwd)

Valery Mitsyn vvm at mammoth.jinr.ru
Wed Mar 28 16:06:34 MSK 2012


On Wed, 28 Mar 2012, Minaenko Andrey wrote:

>     Здравствуйте, уважаемые коллеги,
> посмотрите, пожалуйста, письмо внизу и пришлите мне Ваши ответы. Желательно 
> сегодня-завтра.

В JINR-LCG2 = 5GB

>    С уважением,    Андрей.
> P.S. Я знаю, что некоторые сайты устанавливают довольно низкий лимит на vmem 
> (3,5 ГБ в КИ). Мне кажется, что это не оправдано, и он д.б. никак не меньше 
> 4 ГБ (или больше).
>
>
> ---------- Forwarded message ----------
> Date: Tue, 27 Mar 2012 16:53:06 +0200
> From: I Ueda <I.Ueda at cern.ch>
> To: "atlas-adc-cloud-all (contact for all the ATLAS cloud supports)"
>    <atlas-adc-cloud-all at cern.ch>
> Subject: Survey on vmem situation
>
> Dear the clouds,
>
> As presented at the ADC weekly today,
> can we ask each cloud a table with sites, vmem limits (no limit, >=4GB, 
>> =3.5GB or <3.5GB), cpu capacity, timescale?
> https://indico.cern.ch/materialDisplay.py?contribId=12&materialId=slides&confId=183608
>
> this is to understand how much CPU capacity we have to run reconstruction 
> jobs consuming >3.5 GB vmem.
> and if there are many sites which have problems, then to understand 
> feasibility and time scale to reach this target.
>
> please note  that there is no problem for the sites with physical memory 2GB 
> and no vmem limit.
>
>
> an item has been prepared on the next weekly agenda for uploading reports
>  https://indico.cern.ch/conferenceDisplay.py?confId=183609
>
> regards, ueda 
> _______________________________________________
> RU-NGI mailing list
> RU-NGI at theory.sinp.msu.ru
> http://theory.sinp.msu.ru/mailman/listinfo/ru-ngi
>

-- 
Best regards,
  Valery Mitsyn


More information about the RU-NGI mailing list