O projeto de simulação de acordo com Shannon [3] deve ser planejado
estrategicamente para que forneça as informações requisitadas, pelos custos
esperados. Com as informações obtidas na fase de formulação, o analista deve
desenvolver estimativas de tempo e prazos para as principais fases do projeto
(desenvolvimento, verificação, validação, experimentação e análise dos resultados).
As medidas de desempenho e os fatores que serão variados na simulação
devem ser definidos, assim como o tamanho da amostra de dados. Esse tamanho, por
exemplo, pode influenciar na decisão de detalhamento visual do modelo. Caso a
amostra seja grande, o tempo de desenvolvimento do modelo pode ser reduzido (com
menor grau de detalhamento visual), não comprometendo os prazos do projeto.
Shannon [3] faz referência à “regra de Pareto”, afirmando que possivelmente
oitenta por cento (80%) do comportamento do sistema pode ser representado por
apenas vinte por cento (20%) dos componentes do modelo. A maior dificuldade é
identificar os componentes realmente vitais para a simulação. A determinação de um
nível apropriado de detalhes é uma decisão importante, pois muitos detalhes dificultam
e consomem tempo de modelagem.
Os modelos, ao invés de imitaram exatamente o sistema real, devem conter
apenas os elementos que contribuam para as questões em estudo. O nível de detalhes
também pode estar associado à precisão exigida dos resultados. Em um extremo, uma
estação de trabalho pode ser modelada como uma operação “caixa preta”, com
entradas, saídas e tempos definidos. Em outro extremo pode ser simulado o movimento
detalhado de uma máquina, correspondente a uma de suas operações.
Em linhas gerais, o projeto de simulação deve inicialmente considerar aspectos
como a amplitude do modelo (quanto do sistema o modelo representará), o nível de
detalhes, o grau de exatidão (precisão), o tipo de experimentação, e as formas de
apresentação dos resultados. O alcance do modelo afeta apenas seu tamanho, e o
nível de detalhamento, por exemplo, afeta seu tamanho e complexidade [22].
Os dados de entrada do modelo não devem ser os dados obtidos
empiricamente, mesmo que sejam distribuições empíricas geradas diretamente com
esses dados. Isso se deve pelo fato de que os valores que não estiverem contidos na
amostra observada serão ignorados. No entanto, caso o modelador utilize uma
distribuição probabilística aumentam-se as chances de abranger todos os valores [22].
As distribuições probabilística podem ser citadas como: Normal, Poisson, Gama,
Lognormal, Exponencial, entre outras. Alguns programas (Expert Fit, Best Fit, Stat Fit,