Документ взят из кэша поисковой машины. Адрес оригинального документа : http://theory.sinp.msu.ru/pipermail/ru-ngi/2012q1/000489.html
Дата изменения: Wed Mar 28 21:30:20 2012
Дата индексирования: Tue Oct 2 03:22:36 2012
Кодировка:

Поисковые слова: clouds
[RU-NGI] Fw: Survey on vmem situation (fwd)

[RU-NGI] Fw: Survey on vmem situation (fwd)

Vladimir Tikhomirov tikhomir at sci.lebedev.ru
Wed Mar 28 21:29:55 MSK 2012


   Добрый день.
 Site FIAN: CPU capacity - 96, vmem is unlimited.
   Всего наилучшего,
   В.Тихомиров.

>       Здравствуйте, уважаемые коллеги,
> посмотрите, пожалуйста, письмо внизу и пришлите мне Ваши ответы.
> Желательно
> сегодня-завтра.
>      С уважением,    Андрей.
> P.S. Я знаю, что некоторые сайты устанавливают довольно низкий лимит на
> vmem
> (3,5 ГБ в КИ). Мне кажется, что это не оправдано, и он д.б. никак не
> меньше
> 4 ГБ (или больше).
>
>
> ---------- Forwarded message ----------
> Date: Tue, 27 Mar 2012 16:53:06 +0200
> From: I Ueda <I.Ueda at cern.ch>
> To: "atlas-adc-cloud-all (contact for all the ATLAS cloud supports)"
>      <atlas-adc-cloud-all at cern.ch>
> Subject: Survey on vmem situation
>
> Dear the clouds,
>
> As presented at the ADC weekly today,
> can we ask each cloud a table with sites, vmem limits (no limit, >=4GB,
>  >=3.5GB or <3.5GB), cpu capacity, timescale?
> https://indico.cern.ch/materialDisplay.py?contribId=12&materialId=slides&confId=183608
>
> this is to understand how much CPU capacity we have to run reconstruction
> jobs consuming >3.5 GB vmem.
> and if there are many sites which have problems, then to understand
> feasibility and time scale to reach this target.
>
> please note  that there is no problem for the sites with physical memory
> 2GB
> and no vmem limit.
>
>
> an item has been prepared on the next weekly agenda for uploading reports
>    https://indico.cern.ch/conferenceDisplay.py?confId=183609
>
> regards, ueda
>
> _______________________________________________
> RU-NGI mailing list
> RU-NGI at theory.sinp.msu.ru
> http://theory.sinp.msu.ru/mailman/listinfo/ru-ngi
>




More information about the RU-NGI mailing list