segunda-feira, 29 de outubro de 2007

Mr. Palomar is back ...

"Num modelo bem construído, cada detalhe deve ser condicionado pelos outros, pelo que tudo se mantém com absoluta coerência, tal como num mecanismo onde, se uma das engrenagens pára, todo o conjunto pára. O modelo é por definição aquilo em que não há nada a mudar, aquilo que funciona na perfeição; ao passo que, em relação à realidade, podemos facilmente verificar que ela não funciona, que se espapaça por todos os lados; portanto, nada mais resta do que obrigá-la a tomar a forma do modelo, a bem ou a mal."





Mr. Palomar é, sem dúvida, um fundamentalista dos modelos. Imune aos dados, "esforçou-se por alcançar uma impassibilidade e uma distanciação tais que fizessem com que aquilo que contasse fosse apenas a serena harmonia das linhas do desenho - linhas claramente traçadas, rectas e círculos e elipses, paralelogramas de formas, gráficos com abcissas e ordenadas."


No case study anterior, a harmonia do desenho é o que menos importa. Em primeiro lugar, aquele modelo nasceu da necessidade de traduzir uma determinada decisão de negócio. Procura traduzir a relação entre as diferentes variáveis inerentes ao problema de decisão, apoiando o processo exploratório dos factores que impactam a decisão. As formas utilizadas têm significados bem definidos, identificando a variável de decisão, as variáveis intermédias e as variáveis objectivo.


Acima de tudo, é a concretização do processo mental que se desencadeia na mente do gestor quando confrontado com a necessidade da tomada de decisão. O diagrama de influências apresentado baseia-se numa situação de negócio real e foi um óptimo exercício por ter revelado a necessidade de considerar duas variáveis exógenas que raramente são abordadas como tendo verdadeiro impacto nos resultados (... deve ser por isso que passo dias a fazer análises sobre a influência dos perfis e dos meios na taxa de resposta e nada se conclui ... uuupsss ...). Provavelmente, andamos a querer moldar a realidade ao modelo que nos convém ... (sim, ELES têm o endereço deste blog; sim, vou descobrir rapidamente se ELES costumam vir aqui dar uma espreitadela).


Para construir o modelo, é necessário partir de alguma coisa, ou seja, é preciso ter modelos, axiomas, postulados, a partir dos quais se faça derivar por Dedução o nosso próprio raciocínio. E de alguma forma eles têm de existir, porque senão não nos podíamos pôr a pensar sequer. É a obtenção de dados através da aplicação de fórmulas. Contudo, o processo de Dedução pouco acrescenta por assentar na aplicação de regras gerais a casos particulares. A Indução é, em certos aspectos, oposta à dedução, porque as premissas a partir das quais se parte são as menores, fazendo o raciocínio avançar do particular para o geral. É a extracção de conhecimento, revelado através de relações emergem dos dados. É a existência de dois princípios que se completam entre si, que são os vasos comunicantes entre Dados e Modelos.


"Deduzir era uma das actividades preferidas de Mr. Palomar, porque podia dedicar-se a ela sozinho, (...) sem quaisquer apetrechos. (...) Em relação à indução, pelo contrário, sentia uma certa desconfiança, talvez porque as suas experiências lhe pareciam aproximativas e parciais.


A construção de um modelo era portanto para ele um milagre de equilíbrio entre os princípios e a experiência, mas o resultado tinha de ter uma consistência muito mais sólida do que aquelas e do que esta."


(ITALO CALVINO, Mr. Palomar)

P.S. -

domingo, 28 de outubro de 2007

Diagrama de influência - case study individual

O diagrama de influência apresentado procura modelar o impacto da decisão de continuar ou não a investir em publicidade nos meios de imprensa, para determinado produto de crédito, na minimização do custo de recrutamento.

A empresa tem duas formas de angariar clientes para este produto:

- aproveitar a base de clientes que têm um outro produto e trabalhá-la em termos de cross-selling, propondo a estes clientes a adesão ao produto de crédito, através de campanhas via mailing;

- fazer publicidade em jornais e revistas, com o objectivo de fazer aumentar a notoriedade do produto de crédito e diversificar a carteira de clientes.



O custo de recrutamento é obtido através de uma relação entre o montante total investido por acção (mailings ou publicidade, neste caso) e o montante total financiado aos clientes recrutados por cada uma das vias. Por questões estratégicas do Grupo, a continuidade do investimento em Media tem vindo a ser questionado, colocando-se a hipótese de recrutar clientes apenas via mailings de cross-sell.

quarta-feira, 24 de outubro de 2007

Hierarquia de Objectivos de Grupo



por Ana Cardoso, Ana Sofia Marques e Rui Cunha


História dos DSS

Times: 1982-2006 (A maturidade é uma conquista poderosa mas lenta ...)

No seu livro Decision Support Systems in 21st Century, Marakas entrelaça as raízes dos DSS com o esforço dos gestores em aplicar modelos quantitativos aos problemas de decisão recorrentes nos ambientes organizacionais. Para o autor, o conceito surge no início dos anos 70 e dois artigos são destacados como referências para o desenvolvimento do conceito e para a formalização da terminologia Decision Support Systems.

O primeiro artigo, datado de 1970 e escrito J.D. Little (1970), intitulava-se “Models and managers: The concept of a decision calculus” e focava a não utilização dos modelos de gestão vigentes na época pelos decisores. Ainda sem invocar especificamente o termo DSS, o autor descrevia o decision calculus da seguinte forma: “a “model-based set of procedures for processing data and judgments to assist a manager in his decision making”. O título do artigo e a própria definição explicitam o enfoque dado pelo autor à componente de modelização. Como condição para o modelo ser usado por um gestor, ele deveria ser simples, robusto, fácil de controlar, adaptativo, o mais completo possível e de fácil interacção. O próprio Marakas recupera algumas destas características na sua definição de DSS, nomeadamente o estar sob o controlo do utilizador do sistema, a interactividade e o ser user-friendly (a ergonomia do sistema), ter um desenvolvimento evolutivo e iterativo (citando Little, “adaptative means that the model can be adjusted as new information is acquired”).

Começa a delinear-se o que se entende por model-driven DSS. Segundo Powers (2003), estes enfatizam o acesso e a manipulação de modelos financeiros, de optimização e/ou simulação. Modelos quantitativos simples, sem a necessidade de serem alimentados por grandes bases de dados, orientariam o decisor no processo de tomada de decisão. Segundo o mesmo autor, é no final dos anos 70 que surge a primeira ferramenta comercial para a construção de model-driven DSS, tendo por base modelos financeiros e quantitativos – chamava-se IFPS e foi desenvolvida na Universidade do Texas por Gerald. R. Wagner em conjunto com os seus alunos.


O segundo artigo referido por Marakas, escrito por Gorry and Scott Morton (1989) – “A framework for management information systems”, apresenta pela primeira vez o termo Decision Support System .Os autores apresentam um framework assente em dois eixos para fornececer suporte computarizado a actividades de gestão.

O eixo vertical resulta da classificação de estuturação da decisão proposta por Simon. Simon sugeriu que as decisões podem ser categorizadas de acordo com o facto de serem programáveis (repetitivas, rotineiras, de senso comum) ou não programáveis (novas e únicas no seu contexto, com consequências incertas).

O eixo horizontal representa os níveis das actividades de gestão propostas por Anthony (1965). Este autor considera que as actividades de gestão podem ser categorizadas em 3 classes – o planeamento estratégico, o controlo de gestão, controlo operacional. Através da combinação das abordagens dos 2 autores, o framework proposto por Gorry e Morton servia como guia para a afectação de recursos de SI onde houvesse o maior Return On Investment.

Ainda nos anos 70, começam a surgir os primeiros data-driven DSS que, segundo Powers, enfatizam o acesso e a manipulação de séries temporais, privilegiando os dados internos das organizações. Trata-se portanto do aproveitamento dos dados históricos na posse das organizações como matéria-prima de suporte ao processo de tomada de decisão. Através de ferramentas de query conseguem-se obter respostas a perguntas de negócio “escondidas” nos dados.

Segundo o autor, é neste contexto que se enquadram os EIS (Executive Information Systems) e os ESS (Executive Support Systems), que podem ser entendidos como um sistema de informação de gestão que apoiam a tomada de decisão e que integram dados internos e externos à organização. Estes sistemas evoluíram dos model-driven DSS e da utilização de bases de dados relacionais, focando-se no display gráfico da informação, apelativo para o gestor e na usability dos interfaces. Estamos nos anos 80.

Nos anos 90, o data warehousing e o OLAP (On-Line Analytical Processing) alargam o que já se havia alcançado com os EIS e estendem o âmbito dos data-driven DSS, por permitirem lidar com quantidades de dados na ordem das dezenas de terabytes. Inmon e Kimball estiveram na linha da frente destas evoluções, como “the father of the data warehouse” e “the doctor of the DSS”, respectivamente.

Voltando a Marakas e à discussão entre dados e modelos, o autor considera que ambos definem um DSS. O autor considera que a evolução dos DSS desde a sua concepção em 1970 até aos dias de hoje sofreu já inúmeras extensões da noção original. A visão evolutiva dos DSS inclui um foco em knowledge-based systems, inteligência artificial, expert systems, group support systems, data visualization systems and organizational decision support systems. Uma resenha histórica sem citar estes sistemas não estaria nunca completa.

Powers aborda o futuro dos DSS do ponto de vista da evolução tecnológica, enquanto Marakas realça sobretudo a evolução da mentalidade das organizações e do gestor, ao afirmar que “managers will rely on the availability of more powerfull and usefull DSS applications in the conduct of their daily activities”. Podemos ter os olhos postos no futuro mas convém ir dando uma piscadela ao passado. É que em 1947 Simon publicava o seu livro Administrative Behavior, que é até hoje uma referência na forma como mostra que as organizações podem ser entendidas em termos do processo de decisão. Fala-se de tecnologia, mas fala-se sobretudo de pessoas. Os editores da Times deviam ter lido o livro em 1982 ...

segunda-feira, 22 de outubro de 2007

Multidimensionalidade


A representação da realidade tem sido uma preocupação do Homem desde o início dos tempos, sendo a Arte um óptimo exemplo disso mesmo. As pinturas rupestres do Paleolítico (40.000 A.C.) serão porventura as mais antigas representações da realidade conhecidas e com elas percebemos que a tarefa de Descrever nos acompanha desde os primórdios. Graças ao desejo de expressão inerente ao Homem, chegaram até aos dias de hoje descrições de caçadas que são verdadeiros documentos históricos para os historiadores e antropólogos. Nesta altura, o Homem era caçador-recolector e um dos grandes problemas com que se debatia era o da subsistência – curioso como era esse também o grande tema das suas representações.




Hoje em dia descrevemos processos de negócio, na época descreviam-se as caçadas - os objectos descritos eram as presas, os instrumentos utilizados, os predadores. Através de representações simplificadas, ficámos a conhecer os atributos desses objectos – por exemplo, no que respeita às presas preferenciais: qual o seu porte, se andavam em manada, se tinham ou não chifres … E estas representações bidimensionais duram até hoje (não existiam tapes), sendo aquilo que considero a primeira representação no plano (enfim, não obstante tratar-se da parede de uma gruta) de um problema real da vida do Homem. Teoria da Evolução à parte, e assumindo a impossibilidade de converter o QI que o Homem tinha nessa época para as medidas que conhecemos hoje, será que essa representação teria como objectivo apoiar o aperfeiçoamento das tácticas empregues nas caçadas? Se os nossos antepassados possuíam Inteligência para a expressão artística, não me parece completamente descabido que possuíssem um outro tipo de Inteligência mais Lógica empregue na análise de Problemas.


O que se pretende com este post é uma reflexão sobre a origem da abordagem multidimensional no contexto do Data Warehousing. Foi afirmado na aula que o Kimball estaria na origem da terminologia, tendo a veracidade dessa afirmação sido imediatamente questionada pela Profª. De facto, no seu livro “The Data Warehouse Toolkit”, Kimball refere que não foi ele quem inventou essa terminologia (pp. 16). Os termos “Dimensão” e “Factos” terão tido origem num projecto de investigação conjunta conduzido por General Mills e a Universidade de Dartmouth nos anos 60. As Dimensões são tabelas que contêm os atributos de um negócio (sim, já há muito que deixámos de ser caçadores-recolectores, pelo menos neste hemisfério do globo), pelo que são em si bidimensionais- têm uma estrutura organizadas em linhas e colunas. Contudo, cada objecto que encontramos em linha tem uma tradução multidimensional. Num determinado contexto de negócio, se considerarmos uma Dimensão Cliente como uma tabela que guarda n atributos de Cliente, conseguimos imaginar uma projecção no espaço de 3 atributos em simultâneo. Até aí conseguimos uma visualização da realidade. A introdução de um 4º atributo faz com que já não seja possível visualizar esse objecto no espaço. A leitura combinada de várias Dimensões para explicar um determinado Facto de negócio é, da mesma forma, impossível de visualizar no espaço. Conseguimos, contudo, olhar para uma linha de uma tabela, composta por n atributos e responder à pergunta “O que caracteriza o Cliente A?”, descrevendo os seus atributos. O Cliente A é um vector, que se traduz num ponto do espaço, independentemente da nossa capacidade de o visualizar.

Se invocarmos a definição matemática (simplista) de Dimensão de um espaço, recordamos que é o número de parâmetros necessários para identificar um ponto desse espaço. No mundo de Kimball, a Dimensão continua a respeitar essa definição, se considerarmos que uma Dimensão tem os atributos necessários para a correcta descrição de um processo de negócio. E que a combinação em linha dos diversos atributos se pode traduzir num ponto num espaço.

Entramos no mundo dos Espaços Vectoriais e das Matrizes. Uma matriz é uma tabela rectangular de elementos (ou objectos), que obedecem a propriedades de adição e multiplicação bem definidas. Não entrando em demasiado detalhe sobre as propriedades a que as matrizes devem obedecer, o conceito de organização de dados em linhas e colunas está lá, nos princípios de Álgebra Linear.
Historicamente, o estudo de matrizes surge na literatura Chinesa de 650 AC, no âmbito da resolução do problema do quadrado-mágico (um Sudoku, para ser mais perceptível).
A designação matriz ganha afirmação no século XIX, com o trabalho de matemáticos como J. J. Sylvester. Cayley, Hamilton, Grassmann, Frobenius and von Neumann. Incrível, estamos a falar de mais de 1000 anos de distância entre as duas ocorrências, e não referimos os trabalhos de Descartes no âmbito da Geometria Analítica (séc. XVII) ou de Newton (sec. XVIII).

O conhecimento dos Investigadores não é uma tábua rasa. A sabedoria suporta-se de descobertas anteriores e do questionar continuo dos paradigmas estabelecidos. Kimball teve honestidade intelectual suficiente para referir que “It is probably accurate to say that a single person did not invent the dimensional approach”. O nosso trabalho de pesquisa pode levar-nos a concluir que o princípio por trás da abordagem dimensional remonta aos primórdios da História e da Ciência e das diversas tentativas que o Homem tem feito desde sempre para representar a Realidade que o rodeia.

domingo, 21 de outubro de 2007

Indicadores de Inteligência

Gosto destes TPC's que nos fazem subir o ego!!!



("Como sabiam que gosto de bandoletes?" - ai que isto é plágio ...)


Os testes de Inteligência são mais uma ferramenta de Classificação das que o Homem insiste em desenvolver e melhorar desde o inicio dos Tempos, com o objectivo de dar resposta a questões tão profundas, como "Quem sou eu?".

Os autores do Tickle.com disponibilizam-nos uma descrição detalhada dos resultados obtidos no teste de QI (The Classic IQ Test, para ser mais precisa), nomeadamente a pontuação em cada um dos vários tipos de Inteligência (de acordo com a sample do site, é possível pelo menos avaliarmos a Inteligência Matemática e a Visual-Espacial ) e a comparação dos nossos resultados com os de outras pessoas. Já acho positivo conseguirem desagregar os nossos resultados pelos diversos tipos de Inteligência (tenho alguma curiosidade, confesso ...) mas mais incrivel ainda conseguirem estabelecer relações entre os nossos resultados e os dos outros. Como custa $13 temos pena, mas não vai ser desta que vou ficar a saber como é que os srs. do tickle.com classificam a minha pessoa.

No que respeita à objectividade/subjectividade destes e outros testes, considero que todos eles são muito objectivos naquilo a que se propõem.

Por exemplo, Binet e Simon desenvolveram uma das primeiras escalas de inteligência - Escala de Binet-Simon - usada para identificar estudantes que pudessem precisar de ajuda extra na sua aprendizagem escolar.

Quantos de nós não realizámos já testes de orientação escolar, que nos dá o perfil académico que temos à data e as orientações profissionais que se adequam ao perfil revelado?

E a nossa média do secundário, que resulta da média das avaliações que tivemos em todas as disciplinas durante 3 anos e das notas de uma bateria de exames que são feitos em 15 dias? É ela que determina a nossa entrada em determinado curso, é o indicador de perfil mais completo que o nosso sistema de acesso ao ensino superior tem para nos possibilitar ou recusar o acesso a determinada licenciatura.

Não se tratando exactamente de um teste de Inteligência, todos nós sabemos o signo do zodíaco a que pertencemos e que características têm os nativos de cada um (talvez o modelo de classificação universalmente mais conhecido).

Estes sistemas de classificação são objectivos? São, resultam de um conjunto de regras bem definidas que transformam os nossos inputs (sejam respostas ao testes do Tickle ou as notas que obtivemos do 10º ao 12º ano) em outputs adequados ao contexto em que se inserem (Filósofo Visionário ou colocado em Estatística e Gestão de Informação). A minha data de nascimento classifica-me como Peixes.

Concordamos com os resultados? Ah, é aqui que entra a noção de subjectividade. Um aluno com média de 19 e com uma inteligência Interpessoal (uma das 7 inteligências de Gardner) concorre a Medicina e entra. Um outro com média de 17 e com qualidades interpessoais fantásticas não entra. Acho que todos concordamos que os testes conduzidos para aferir a inteligência de cada um foram objectivos, mas terão sido completos ou multi-inteligências? Não.

Não, porque o Homem carrega em si subjectividade, algo que só se passa em si e que não é válido para todos. Algo que não é mensurável através de testes. Ou pelo menos através de um teste único. "Ah, o Manel entrou em Medicina só porque é um marrão. O João daria um médico muito melhor, mas ninguém tem isso em conta. Essa história das médias finais é muito subjectiva". O cálculo das média de entrada é 100% objectivo, a subjectividade está nas dimensões ocultas de cada um de nós, que faz com que seja extremamente dificil desenvolver um teste que acerte sem erro no nosso perfil.

Considero que testes como os disponíveis no tickle.com devem ser encarados como uma bengala no nosso processo de auto-conhecimento. Os resultados são concerteza os melhores possíveis no âmbito de cada teste em particular (isto assumindo que existe o minimo de seriedade e rigor nos ditos testes), mas quem se sujeita ao teste deve ter a capacidade de se distanciar dos resultados obtidos. Até porque nós somos priveligiados, pois sabemos que para os cálculos de perfis são baseados em observação de amostras para poder extrair regras, que a correcta definição das regras deve ter em conta x relações entre y variáveis e que por mais aperfeiçado que a heuristica ou o algoritmo tenham sido, existe sempre uma componente de erro. Conhecem algum modelo que tenha capacidade explicativa de 100%?

Mas como todos precisamos de ter a imagem que temos de nós própria validada por terceiros (bem, nem todos ...), façamos os testes que nos aparecerem pela frente. Se ficarmos satisfeitos com os resultados, seja porque fica bem num blog ou porque reforça a nossa suspeita de que afinal seríamos um péssimo Arquitecto no futuro, porque não referi-lo e sugerir a sua realização a amigos ou colegas?


Perfil de Entrada no MSIAD

Já estava na altura de tornar pública a minha interpretação/descodificação do modelo de classificação dos candidatos ao MSIAD. De facto, este modelo já tinha sido partilhado no inicio de Outubro com a Profª e com os meus ilustríssimos colegas de grupo. Partilhei-o com a Fernanda, após ter sido lançado o desafio de fazermos evoluir as nossas soluções individuais para um modelo mais robusto e que permita tratar vários objectos (i.e., várias candidaturas) em simultâneo.



Ora cá vai um print screen do interface de input/output, que este mundo dos blogs limita um bocado a partilha completa do que andamos a fazer:


Esta solução foi construida na perspectiva do Avaliador, que após a recepção das candidaturas e realização da entrevista, estará nas devidas condições de avaliar - quantitativa e qualitativamente - cada um dos candidatos (no entanto, como aluna do MSIAD 07/08, sinto-me orgulhosa em fazer parte da amostra de teste que vai ser usada para o aperfeiçoamento da solução, através da minha auto-avaliação). Eis as regras resumidas de funcionamento deste DSS* :

Inputs

- O Avaliador deve atribuir uma nota de 0 a 4 (0 - Nulo a 4 - Especialista) ao Nível de Conhecimento (Académico) por ramo científico, decorrente da análise do CV+Certificado de Habilitações+Ficha de candidatura.

- O Avaliador deve preencher com Sim ou Não outros itens de avaliação, que devem complementar o perfil do candidato, numa óptica qualitativa.


Outputs

O output final é composto por 3 grandes resultados, de forma a que o Avaliador tenha uma visão rápida do Perfil completo do candidato:

- a prevalência das áreas de formação no percurso académico do candidato, que vai ser traduzida nas várias combinações possíveis entre Gestão, Informática e Mét. quantitativos, que designei Perfil de Entrada (passadas 2 semanas e meia, já discordo com esta designação);

- o nível de conhecimento Global do candidato, que pode ter 1 de 5 valores possíveis (de Nulo a Especialista);

- as considerações adicionais ao perfil, neste caso entendidas como o suporte da candidatura por outros factores.


Modelo (... UAU!!...)


Ora bem, na worksheet REGRAS_DE_CLASSIFICACAO descreve-se o funcionamento do modelo. Resumidamente:

- o modelo assume que o nível de conhecimento Global do candidato deve ser obtido a partir do nível de conhecimento associado a cada uma das 3 grandes Áreas. Assim:

- primeiro calcula-se a média simples de cada uma das 3 grandes áreas de conhecimento; obtemos assim o nível médio de conhecimento por Área.

- o nível de conhecimento Global obtém-se fazendo a média simples do nível de conhecimento obtido nas 3 áreas. O output Nivel Global categoriza este valor.

(nota: não foram consideradas ponderações por não terem sido explicitadas importâncias relativas de disciplinas/áreas no enunciado do problema)

- As médias obtidas permitem criar um ranking das áreas, ou seja, hierarquizam-se as áreas por nível de conhecimento;

- O ranking das áreas permite classificar o candidato nas diversas combinações possiveis entre as classes Gestor/Matemático/Informático

(nota: se determinada área tem uma classificação final Nula ou Básica, é desprezada na combinação, e.g., Gestão = Nível Nulo, Informático = Nível Intermédio, Met. Quant. = nível Básico => Perfil Entrada = Informático)

- Para obter um perfil mais completo do candidato, teve-se ainda em conta a presença/ausência de 4 indicadores (avaliados com SIM/NÃO) e com o mesmo peso. Classifica-se assim o candidato com base no suporte da candidatura por outros factores, com 4 níveis - Nulo, Fraco, Bom, Excelente.



Se houver interessados no ficheiro original, deixem um comment e email para onde devo enviar. Se não estiverem interessados e quiserem apenas tecer algumas considerações sobre esta solução, deixem um comment na mesma.

*******************************************************************

* Fazendo uma leitura desta proposta à luz do que é um DSS, conseguimos ver reflectidas as seguintes caracteríticas:

- um contexto de decisão semi-estruturado (ok, pretende classificar-se o candidato de acordo com o seu perfil de entrada e decidir se determinado candidato é apto ou inapto, mas existem n alternativas para o decisor basear a sua decisão: a quantificação da experiência adquirida no percurso profissional, como associar essa aprendizagem, que é tipicamente multidisciplinar e de alto nível, a uma das disciplinas da listagem inicial ...)

- suporta o decisor, não o substituindo - permite a visão global do candidato e sustenta uma decisão, mas a palavra final é sempre do decisor, que terá de combinar os 3 grandes resultados para uma decisão final;

- suporta todas as fases do processo de tomada de decisão (invocando Simon, Intelligence, Design and Choice - não obstante o nível básico em que esta (amostra) de sistema ainda se concontra);

- foca-se sobretudo na eficácia do processo de tomada de decisão;(é atribuida uma classificação que se pretende com o minimo de erro, não é?)

- o utilizador controla o sistema (as regras de classificação estão disponiveis para consulta e alteração);

- usa dados e modelos (ok, desta não há como discordar);

- é interactiva e user-friendly (digam-me de vossa justiça, construi-a com esses dois objectivos em mente);

- resulta de um processo evolutivo e iterativo (a primeira versão tinha pouco a ver com esta, e esta ainda tem um enorme potencial de melhoria);

- permite suportar todos os níveis de gestão (no limite, os serviços de apoio ao Mestrado podiam começar por usar o sistema para uma primeira fase de filtragem dos candidatos, assim a Profª Trigueiros não teria de perder tempo a ler CV's inadequados neste contexto ...);

- permite suportar decisões independentes ou interdependentes (por exemplo, decidir com base no nível académico e/ou outros factores);

- permite suporte para tomada de decisões multi-contexto: individual e grupo/equipa (bem, neste momento só permite tomar decisões individuo a individuo mas a turma está a tratar do resto, apoiada na versão da Fernanda e nos contributos de todos ...)

domingo, 7 de outubro de 2007

Problemas Matemáticos

O objectivo é fazer com que o resultado das operações matemáticas tenha como resultado 6 (ou uma tentativa de aumentar o nº de comentários no meu blog...).

0 0 0 = 6
1 1 1 = 6
2 2 2 = 6
3 3 3 = 6
4 4 4 = 6
5 5 5 = 6
6 6 6 = 6
7 7 7 = 6
8 8 8 = 6
9 9 9 = 6


Dicas: não se esqueçam dos factoriais e raizes quadradas/cúbicas. É que parecendo que não, facilita!

Sobre Inteligência e Matemática

M.C. Escher


Mais do que um simples artista gráfico, M.C. Escher conseguiu brincar com arquitectura, perspectiva e espaços impossíveis. A sua paixão pela Divisão Regular do Plano originou a gravura que se encontra aqui reproduzida, em que peixes e aves são usados como elementos para o preenchimento de superfícies.

Sou fã incondicional do trabalho de Escher, talvez por ele ter brilhantemente cruzado áreas do Conhecimento que sempre me atraíram. Sempre adorei desenhar e, à luz da Teoria das Múltiplas Inteligências de Howard Gardner, considero que o meu forte sempre foi a Inteligência Lógica. Daí ter tomado desde cedo a decisão de que o meu futuro seria a Arquitectura, pois achava que a combinação destes dois factores seria o suficiente para que eu viesse a ser uma boa arquitecta. No Secundário estive sempre em Artes e completei dois anos do curso de Arquitectura. O 1º ano foi um ano de sucessos, pois o desenho era uma disciplina com forte peso na estrutura do curso, assim como a abstracção de conceitos (como a percepção de Espaço e relação entre Corpo e Espaço). A Matemática era então uma disciplina que tinha também um peso muito elevado (para desgosto dos meus colegas de curso), e os meus resultados surpreenderam muita gente (pela positiva, entenda-se), tendo para isso também contribuido a minha personalidade discreta e reservada que ainda hoje se mantém.

Durante algum tempo assumi que a Inteligência Lógica e a Espacial seriam, no meu caso, um dois-em-um. Alguns criticos da Teoria de Gardner defendem precisamente que existe uma elevada correlação entre as capacidades espaciais e matemáticas, o que poderia contradizer a separação clara entre os diversos tipos de Inteligência defendida pelo autor. Mas ao fim do 2º ano percebi claramente que no meu caso uma não implicava de todo a outra. Aquilo que eu pensava serem inclinações artísticas eram na verdade algum virtuosismo nas técnicas de desenho.

Altura de re-definir objectivos, altura de avaliar as minhas capacidades. "Elevada capacidade de extrair informação de dados sem aparente significado", foi o resultado do teste que mais me marcou. A escolha estava feita, Matemática Aplicada à Computação, Inst. Sup. Técnico. Preparei-me durante 6 meses, sabia que entrava pois a média de acesso não representava para mim qualquer tipo de obstáculo. Eis que por acaso, numa página do Expresso, a 1 mês de fazer o exame nacional para o acesso ao Ensino Superior, encontro o anúncio ao Instituto Superior de Estatística e Gestão de Informação, que iria realizar provas de acesso dali a 2 semanas. Múltiplos factores ajudaram-me a tomar a minha decisão: o ISEGI fazia parte da Universidade Nova de Lisboa (Universidade de prestígio), a estrutura do curso era muito abrangente, havia uma forte relação com o mundo empresarial, eram só 2 anos de licenciatura (para candidatos que tivessem no minimo 2 anos de uma outra licenciatura). Fiz na mesma o exame nacional de Matemática, tive uma óptima classificação mas interiormente eu já sabia que iria escolher o ISEGI. E ainda bem, foi uma óptima decisão, com consequências fantásticas a nível profissional e sobretudo a nível pessoal.
Mas o acaso está aqui - foi o acaso que determinou que, no preciso fim-de-semana de publicação do anúncio do ISEGI, eu o tivesse lido. E, para além de todos os factores que estiveram na base da minha opção, foi a minha intuição que ditou a minha escolha. É o gut-feeling, adoro esta expressão (experimentem colocá-la no motor de pesquisa da wipedia ... ). Identifico-me com ela porque relembra que o corpo tem um papel de relevo no comando e a validação das nossas decisões, não questionando tudo o que já foi postulado pelas diversas correntes da Teoria da Decisão.

A 1ª fase do processo de decisão, para Jonh Dewey, é o sentimento de dificuldade. Comigo aplica-se. É o frio na barriga, a ansiedade - mais uma vez, é o corpo a manifestar-se.

Teoria da Decisão - um resumo

Quase tudo o que o Homem faz envolve tomada de Decisões. Aí reside a grande dificuldade de reflectir teoricamente sobre Decisões. Quando se aborda este tema, abordam-se pessoas, actividades humanas, decisões e a forma como as decisões são tomadas. É um assunto multidisciplinar, que tem atraído o interesse de economistas, estaticistas, psicólogos, políticos e filósofos.

Inúmeras teorias têm vindo a ser desenvolvidas, ficando aqui um breve resumo das principais correntes sobre esta temática.

Condorcet (filósofo francês, 1743- 1794) – está na origem da primeira teoria geral faseada do processo de decisão, dividindo-o em 3 fases (First Discussion, Second Discussion, Resolution).

Modelos sequenciais

Na primeira fileira da discussão moderna sobre teoria da decisão está John Dewey, que estende as 3 fases identificas por Condorcet a 5 fases que acontecem de forma sequencial. Este tipo de modelos é designado sequencial por dividir o processo de decisão em partes que seguem uma determinada sequência.

Herbert Simon (1916 – 2001, Nobel da Economia em 1998) modificou esta listagem de 5 fases, de modo a torná-la adequada ao contexto da tomada de decisões nas organizações. De acordo com Simon, o processo de tomada de decisão consiste em 3 fases principais:

Fase 1 – Intelligence: ocasiões que despoletam uma tomada de decisão;
Fase 2 – Design: encontrar possíveis formas de acção;
Fase 3 – Choice: escolher entre diferentes formas de acção


Brim et al. propõem também outra sub-divisão do processo de decisão.

Fase 1 – Identificação do problema
Fase 2 – Obtenção da informação necessária
Fase 3 – Produção de soluções possíveis
Fase 4 – Avaliação dessas soluções
Fase 5 – Selecção de uma estratégia de desempenho
(Fase 6 – Implementação de uma decisão)

Modelos Não Sequenciais

Alguns autores consideram que, para um modelo mais realista, as várias partes do processo de decisão não devem ter uma ordenação pré-definida, sendo esta inerente ao problema a que se refere.

Mintzberg, Raisinghani and Théorêt identificam fases distintas mas sem uma relação sequencial, tendo como base as 3 fases identificadas por Simon. Os autores consideram que o decisor pode alternar entre rotinas (designação dada às sub-fases) durante o processo de decisão e, não encontrando nenhuma solução aceitável, regressar à fase de Design (desenvolvimento de alternativas).






Uma das discussões que se levanta é o tempo afecto a cada uma das fases identificadas pelos diversos autores. Simon defende que os executivos passam a maior parte do seu tempo na chamada fase de “Design”, dedicando muito pouco tempo à fase de Escolha. Outros estudos suportam essa convicção, revelando que é a fase de levantamento de soluções domina as restantes.

Isto contrasta com o facto de que a Teoria da Decisão focar-se sobretudo com a parte da escolha entre alternativas, que é na perspectiva de muitos autores menos significativa do que as fases de diagnóstico e design. A defesa do foco da Teoria da Decisão na rotina de avaliação e escolha de alternativas reside precisamente no facto de essa rotina em si traduzir o processo de decisão. De qualquer forma, importa realçar que não se deve por isso negligenciar as outras fases …

(adaptado de Sven Ove Hansson, "Decision Theory - A Brief Introduction")

quarta-feira, 3 de outubro de 2007

Afinal, ELES não vão à bruxa* ...


"Savoir pour prévoir, afin de pouvoir."

Auguste Compte

Máxima escolhida para abrir uma apresentação do plano de acção para 2008 - e eu não tive nada a ver com a escolha.

------------------------------------------------
* ... e ainda bem, senão eu estaria no desemprego!

Business Intelligence

A seguinte definição de Inteligência foi assinada por 52 investigadores do conceito, podendo ser encontrada no artigo “Mainstream Science on Intelligence”, publicado no The Wall Street Journal, 13/12/1994.

Intelligence is a very general mental capability that, among other things, involves the ability to reason, plan, solve problems, think abstractly, comprehend complex ideas, learn quickly and learn from experience. It is not merely book learning, a narrow academic skill, or test-taking smarts. Rather, it reflects a broader and deeper capability for comprehending our surroundings -- "catching on," "making sense" of things, or "figuring out" what to do.

Noutra definição (Herrnstein e Murray), a Inteligência traduz-se num comportamento adaptativo orientado a metas.

Podemos facilmente olhar para estas duas definições contextualizando-as no mundo das Organizações. Se as entendermos como entidades que existem com o objectivo de vender bens/e ou serviços aos clientes, com a intenção de obter lucros, rapidamente deduzimos que todas têm pelo menos uma meta a atingir – o Lucro. Como tal, há que garantir que os Gestores de topo têm a capacidade de perceber qual o enquadramento competitivo da sua Empresa.

A inteligência, segundo a 1ª definição apresentada, envolve a capacidade de raciocinar, planear, resolver problemas, capacidade essa que deve ser suportada por indicadores de negócio. Assim, assume-se como de extrema importância a correcta, atempada e pertinente utilização dos dados de que a empresa dispõe, de forma a adequar a sua estratégia, se assim se justificar.

A Business Intelligence poderá assim traduzir-se na obtenção de Conhecimento sobre o negócio, com base na exploração dos Sistemas de Informação de que a empresa dispõem, com o objectivo de optimizar os diversos problemas de tomada de decisão inerentes à Organização. Esse Conhecimento deverá ser estruturado com base em KPI (Key Performance Indicators), que permitam avaliar o estado actual do negócio e fundamentar os planos de acção desenhados pela gestão de topo.