PT | ES | EN Acessar

Blog

Gênese da gestão de riscos: da teoria das probabilidades aos pensadores contemporâneos (parte 2/2)

Gênese da gestão de riscos: da teoria das probabilidades aos pensadores contemporâneos (parte 2/2)

 

1. Introdução

 

Na primeira parte deste estudo, exploramos a origem da teoria da probabilidade e revisamos as contribuições de pioneiros como Pascal, Fermat e Huygens. Eles estabeleceram os alicerces sobre os quais muitos outros construiriam, levando a teoria da probabilidade do reino dos jogos de azar para o centro das decisões científicas, econômicas e filosóficas.

Nesta segunda parte do estudo, vamos mergulhar nas obras e legados de pensadores que deram continuidade a essa jornada, cada um trazendo perspectivas únicas para a gestão de riscos. Bill Gore, cuja abordagem influenciou o mundo corporativo moderno; Andrey Kolmogorov, que solidificou os fundamentos matemáticos da probabilidade; Daniel Kahneman e Amos Tversky, cujas pesquisas sobre economia comportamental reformularam nossa compreensão das decisões humanas sob incerteza; Ulrich Beck, que nos apresentou à "Sociedade de Risco"; John Allen Paulos, um defensor da alfabetização matemática e crítico da inumeracia; e, finalmente, Nassim Nicholas Taleb, que popularizou o conceito de "Cisnes Negros" e destacou a importância da antifragilidade em sistemas. Juntos, esses pensadores expandiram e aprofundaram nossa compreensão dos riscos e de como gerenciá-los em um mundo cada vez mais complexo e interconectado.

Ao longo deste estudo, trazemos vários exemplos práticos que ajudam a ilustrar e materializar o conhecimento teórico. Esses exemplos não apenas enriquecem nossa compreensão, mas também demonstram a aplicação tangível das ideias destes pensadores na vida cotidiana, nos negócios e na sociedade como um todo, pontuando a relevância prática da teoria na gestão de riscos do mundo real

 

2. Pensadores contemporâneos e modernização da gestão de riscos

 

Nesta era contemporânea, marcada por revoluções tecnológicas e complexidades sem precedentes, a gestão de riscos evoluiu, exigindo novas abordagens. Diferentemente da era clássica, que se focava em certezas matemáticas, os pensadores modernos exploraram incertezas, vieses cognitivos e riscos globais, introduzindo conceitos como "cisnes negros" e a dinâmica da nossa "sociedade de risco". Suas contribuições destacam a importância da adaptabilidade e de um olhar crítico para enfrentar os desafios do século XXI.

Ao estudar as contribuições destes visionários modernos, não apenas aprenderemos sobre as ferramentas e métodos atualizados de avaliação e gestão de riscos, mas também sobre a evolução da própria natureza do risco em um mundo cada vez mais complexo e interdependente.

 

2.1. Bill Gore (1912-1986) - Um inovador na cultura organizacional e gestão de riscos

 

Bill Gore é mais frequentemente associado à inovação em materiais, sendo o fundador da W.L. Gore & Associates, a empresa por trás do revolucionário material impermeável e respirável conhecido como Gore-Tex. No entanto, seu legado vai muito além do desenvolvimento de materiais. Bill Gore foi um pioneiro em criar uma cultura organizacional única, que foi fundamental para a gestão de riscos em ambientes corporativos. Alguns exemplos:

  • Cultura sem hierarquia: Uma das inovações mais significativas de Gore foi a ideia de uma "cultura sem hierarquia". Em vez de uma estrutura organizacional tradicional com uma cadeia clara de comando, Gore & Associates operava mais como uma rede de equipes, onde os "associados" (não "funcionários") eram encorajados a tomar a iniciativa e buscar projetos pelos quais fossem apaixonados. Esta abordagem distribuída eliminou muitos dos silos e barreiras de comunicação encontrados em organizações tradicionais.
  • Gestão de riscos por empoderamento: Ao dar a indivíduos a liberdade de perseguir suas paixões e ideias, Gore também criou um ambiente onde o risco era compartilhado e gerenciado em nível de equipe e individual. Isso incentivou uma abordagem proativa à identificação e mitigação de riscos, já que todos se sentiam pessoalmente investidos nos projetos em que estavam envolvidos.
  • Comunicação e feedback constantes: Em um ambiente onde a hierarquia tradicional foi minimizada, a comunicação aberta e o feedback constante tornaram-se vitais. Esta abertura à comunicação foi instrumental na identificação rápida de riscos potenciais e na implementação de soluções.
  • Valores fundamentais e integridade: Gore enfatizou a importância dos valores fundamentais e da integridade em todas as ações. Estes valores serviram como um guia não apenas na tomada de decisões éticas, mas também na avaliação e gestão de riscos.
  •  

    Princípio da Linha d'Água - Bill Gore

     

    O Princípio da Linha d'Água: A Tolerância ao Risco segundo Bill Gore

    O engenheiro e empresário americano Wilbert L. "Bill" Gore, não apenas inovou no desenvolvimento de produtos como os tecidos Gore-Tex, mas também em suas abordagens de gestão de riscos no ambiente de trabalho. Um dos conceitos mais notáveis que ele introduziu é o "Princípio da Linha d'Água".

    A ideia por trás desse princípio é comparar o nível de risco aceitável à linha d'água de um barco:

  • Acima da Linha d'Água: Os riscos acima dessa linha são toleráveis, pois mesmo se as coisas correrem mal, eles não afundarão o barco. Um erro que causa um buraco acima da linha d'água pode ser corrigido, e a equipe pode aprender com a experiência e seguir em frente. Aqui, a autonomia é ampla, e as decisões podem ser tomadas sem a necessidade de aprovação superior.
  • Abaixo da Linha d'Água: Os riscos aqui são críticos. Um erro pode causar um buraco que tem o potencial de afundar todo o barco. Riscos dessa magnitude exigem a aprovação do "capitão" ou da liderança. Eles requerem preparação, investigação de soluções potenciais ou até mesmo a aquisição de seguros apropriados.
  • O Princípio da Linha d'Água representa uma mudança do modelo de gestão top-down tradicional para um mais orientado à equipe. Ao invés de centralizar todas as decisões no topo, ele encoraja a distribuição da tomada de decisão. A aplicação desse Princípio pode ajudar também a evitar o micromanagement, que muitas vezes é prejudicial ao moral e à produtividade. Ao dar mais autonomia à equipe, eles se sentem mais empoderados e responsáveis por suas decisões.

    Jim Collins, consultor de negócios, ao comentar sobre Bill Gore e seu Princípio da Linha d'Água, sugeriu que, ao tomar decisões arriscadas, especialmente diante de dados ambíguos ou conflitantes, deve-se perguntar:

  • Qual é o melhor cenário, se tudo correr bem?
  • Qual é o pior cenário, se tudo correr mal?
  • Você pode conviver com o pior cenário?
  • O Princípio da Linha d'Água não é apenas uma ferramenta de gestão de riscos, mas também encoraja a experimentação prudente. Ele propõe que a verdadeira inovação aconteça quando podemos conscientemente avaliar e aceitar riscos, garantindo sempre que o "barco" continue navegando, mesmo diante de adversidades.

    A análise e redução de riscos devem estar no cerne de qualquer processo intelectual. Lideranças e equipes devem estar sempre cientes dos riscos que têm o potencial de "afundar o barco" e daqueles que, embora possam causar danos, são sobrevivíveis e oferecem oportunidades valiosas de aprendizado.

    À medida que entramos nesta nova era de pensadores, encontramo-nos em um período pós-revolução industrial, uma época moderna, na qual a sociedade está estruturada em torno de organizações e empresas, e não mais dominada por reinos, feudos e territórios. A complexidade e interconexão dos sistemas modernos exigem uma abordagem de gestão de riscos que incorpore a colaboração e o compartilhamento de responsabilidades entre todos os envolvidos. Essa distribuição coletiva de riscos fortalece a resiliência das organizações e ajuda a minimizar incertezas.

    Bill Gore, embora não tradicionalmente reconhecido como um "pensador de gestão de riscos", emerge como uma figura emblemática desse novo cenário. Ele introduziu uma abordagem revolucionária à cultura organizacional, enfatizando uma tomada de decisão descentralizada. Esta estratégia não apenas empoderou os indivíduos, mas também instigou um senso de responsabilidade coletiva. Gore entendeu que, em um ambiente corporativo, gerenciar riscos de maneira eficaz significava confiar e capacitar cada membro da equipe.

    Em uma sociedade onde a adaptabilidade se tornou mais do que uma vantagem - uma necessidade - a visão de Bill Gore sobre gestão de riscos se destaca como um guia valioso, lembrando-nos da importância do equilíbrio entre autonomia individual e responsabilidade coletiva em um mundo corporativo moderno e interconectado.

    Nota ao leitor: Ao longo desta exploração histórica, da mesma forma que fizemos na primeira parte do estudo, apresentamos casos fictícios para ilustrar a aplicação prática das contribuições desses renomados pensadores. Estes cenários proporcionam uma contextualização de como suas descobertas e inovações poderiam ter sido usadas no cotidiano da época e como, de formas adaptadas, continuam a influenciar nossas práticas atuais. A ideia é sair da teoria pura e visualizar o impacto tangível dessas ideias no dia a dia de pessoas e negócios, tanto no passado quanto no presente. Na primeira parte do estudo, tivemos "12 casos exemplos", por isso, iniciaremos no número 13.

     

    Caso exemplo 13: Aplicação do Princípio da Linha d'Água na startup tech “CloudSafe”

    Contexto: A “CloudSafe” é uma startup emergente no setor de tecnologia que oferece soluções de armazenamento em nuvem para pequenas e médias empresas. Fundada por três engenheiros jovens e ambiciosos, a empresa cresceu rapidamente, acumulando uma base de clientes considerável em apenas dois anos. Com o rápido crescimento, vieram desafios associados à tomada de decisões, à gestão de riscos e à manutenção de uma cultura corporativa positiva.

    Problema: Enquanto a empresa crescia, começaram a surgir tensões dentro das equipes devido a falhas de comunicação e micromanagement. Decisões muitas vezes eram tomadas sem considerar adequadamente os riscos envolvidos. Um exemplo notável foi a decisão apressada de lançar uma nova funcionalidade sem testes adequados, resultando em problemas de segurança de dados para alguns clientes.

    Além disso, a equipe técnica sentia que não tinha autonomia suficiente para tomar decisões importantes, enquanto a liderança estava preocupada com a possibilidade de decisões mal-informadas que pudessem comprometer a integridade da empresa.

    Solução: Inspirada pelo legado de Bill Gore e pelo Princípio da Linha d'Água, a CEO da “CloudSafe”, Dra. Lívia Fernandes, decidiu implementar este modelo de gestão de riscos na empresa.

    Ela começou realizando workshops para educar toda a equipe sobre o Princípio da Linha d'Água. Cada departamento, em seguida, identificou quais decisões caíam acima da "linha d'água" (decisões que, se erradas, poderiam ser facilmente corrigidas sem consequências graves) e quais caíam abaixo (decisões com potencial de causar danos significativos à empresa ou aos clientes).

    Decisões acima da linha d'água foram delegadas às respectivas equipes, dando-lhes maior autonomia. Para decisões abaixo da linha d'água, um processo mais estruturado de revisão e aprovação foi estabelecido, envolvendo discussões interdepartamentais e validações da alta liderança.

    Resultado: Com a implementação do Princípio da Linha d'Água, a “CloudSafe” experimentou uma transformação positiva em sua cultura corporativa. A confiança entre a liderança e as equipes aumentou, as tensões diminuíram e a colaboração interdepartamental se intensificou.

    Os erros de comunicação que antes levavam a decisões apressadas e mal-informadas foram substancialmente reduzidos. Em apenas seis meses, a empresa viu uma queda de 30% em incidentes relacionados a falhas na tomada de decisões.

    Mais importante ainda, a satisfação dos funcionários aumentou, com muitos citando o sentimento de autonomia e confiança como fatores-chave para sua satisfação no trabalho. Isso, por sua vez, levou a um aumento na retenção de talentos e a uma melhor reputação no mercado, permitindo que a “CloudSafe” continuasse sua trajetória de crescimento de forma mais sustentável e resiliente.

     

    2.2. Andrey Kolmogorov (1903 – 1987)

     

    Andrey Nikolaevich Kolmogorov foi uma das mentes mais brilhantes do século 20 no campo da matemática e é mais conhecido por sua contribuição fundamental à teoria das probabilidades. Nascido em Tambov, Rússia, ele estabeleceu as bases sólidas da teoria moderna da probabilidade, tornando-a uma parte integral da matemática com conexões profundas e amplas em praticamente todas as suas áreas.

    Teoria das Probabilidades

    Kolmogorov é mais reconhecido por seu trabalho em 1933, "Foundations of the Theory of Probability" (Teoria Axiomática da Probabilidade), onde ele estabeleceu as bases para uma teoria rigorosa e sistemática da probabilidade. Esta abordagem permitiu que matemáticos e estatísticos avaliassem e analisassem eventos com incerteza e variação, criando um quadro lógico e coerente para o estudo das probabilidades. Nesse trabalho, ele apresentou um conjunto de axiomas matemáticos que forneciam uma estrutura formal para a teoria da probabilidade. Os axiomas de Kolmogorov são três princípios fundamentais que descrevem as propriedades básicas da probabilidade. Esses axiomas são:

    1. Axioma da não-negatividade: A probabilidade de um evento é um número não-negativo. Para qualquer evento A, a probabilidade P(A) é maior ou igual a zero;

    2. Axioma da aditividade: Se A e B são eventos mutuamente exclusivos (ou seja, não podem ocorrer simultaneamente), então a probabilidade da união desses eventos é igual à soma das probabilidades individuais. P(A ∪ B) = P(A) + P(B); e

    3. Axioma da normalização: A probabilidade do espaço amostral completo (o conjunto de todos os resultados possíveis) é igual a um. P(S) = 1, onde S é o espaço amostral.

    Esses axiomas estabelecem uma base matemática sólida para a teoria da probabilidade, permitindo a formulação de teoremas e a dedução de resultados probabilísticos de maneira rigorosa.

  • Processos Estocásticos: Além disso, ele investigou a noção de processos estocásticos, incluindo movimento browniano, cadeias de Markov e processos estacionários. Estas são ferramentas cruciais na modelagem de sistemas aleatórios e são usadas em campos tão diversos quanto física, biologia e, claro, gestão de riscos financeiros.
  • Complexidade e Algoritmos: Em seus anos posteriores, Kolmogorov focou em complexidade e teoria da informação, estabelecendo a base para a análise de algoritmos. Esta pesquisa tem implicações diretas para a gestão moderna de riscos, onde algoritmos e modelos computacionais são frequentemente utilizados para simulações e previsões.
  • A abordagem científica e metódica de Kolmogorov à probabilidade proporcionou uma compreensão mais profunda e rigorosa do conceito de risco. Ao fornecer ferramentas para quantificar e modelar incertezas, ele indiretamente influenciou a forma como os riscos são compreendidos, analisados e gerenciados nas organizações modernas. Seja no mundo financeiro, onde os modelos de risco desempenham um papel crucial, ou em outras indústrias, onde a tomada de decisão baseada em dados se tornou a norma, o legado de Kolmogorov é inegavelmente presente.

    Assim, enquanto Kolmogorov pode não ser imediatamente associado ao título de "pensador de gestão de riscos", sua influência subjacente permeia muitos dos conceitos e ferramentas que hoje são padrão na análise e gestão de riscos.

     

     

    Caso exemplo 14: O impacto de Kolmogorov na predição e gestão de riscos na indústria de energia

    Contexto: A indústria de energia, especialmente a de petróleo e gás, é conhecida por ser altamente volátil e repleta de incertezas, desde a exploração até a distribuição. As variações nos preços do petróleo, as mudanças geopolíticas, os desastres naturais e os avanços tecnológicos podem causar flutuações significativas na oferta e demanda.

    Problema: Uma grande empresa multinacional de petróleo e gás, a PetroTech Global, estava enfrentando desafios na previsão de sua produção e na determinação de onde investir seus recursos para futuras explorações. A natureza incerta das reservas de petróleo, combinada com a variabilidade dos preços do mercado e os potenciais riscos geopolíticos, tornava extremamente desafiador para a empresa tomar decisões informadas.

    Solução: Inspirados pela obra de Andrey Kolmogorov, os analistas da PetroTech Global adotaram uma abordagem baseada na teoria moderna da probabilidade para modelar suas incertezas. Utilizando processos estocásticos, em particular as cadeias de Markov, eles conseguiram modelar a produção de petróleo com base em diferentes cenários, levando em consideração a probabilidade de diferentes eventos, como desastres naturais, mudanças políticas ou descobertas de novas reservas.

    Além disso, com o legado de Kolmogorov em complexidade e algoritmos, a empresa desenvolveu simulações computacionais avançadas para prever a demanda futura, os preços e os potenciais pontos de estrangulamento na distribuição. Essas simulações foram alimentadas por enormes conjuntos de dados coletados de fontes globais, e algoritmos foram usados para otimizar a produção e distribuição com base nos resultados previstos.

    Resultado: A PetroTech Global, equipada com ferramentas e modelos matemáticos avançados inspirados na obra de Kolmogorov, conseguiu não apenas melhorar significativamente suas previsões, mas também otimizar suas operações. A empresa foi capaz de reduzir custos, minimizando a exploração em áreas de baixo rendimento, e ao mesmo tempo, focar em regiões com alta probabilidade de sucesso. Além disso, com uma melhor compreensão dos riscos potenciais, a empresa pôde adotar estratégias de mitigação mais eficazes, levando a uma operação global mais robusta e resiliente. Em termos financeiros, isso se traduziu em economias de bilhões de dólares e um melhor posicionamento no mercado global de energia.

    Referência: European Mathematical Society - Newsletter September 2003

     

    2.3. Daniel Kahneman (1934)

     

    Daniel Kahneman, psicólogo israelense-americano, é uma das figuras mais influentes quando se trata de entender o processo de tomada de decisão humana. A sua colaboração com Amos Tversky levou a importantes descobertas no campo da economia comportamental, mesclando princípios da psicologia com a economia tradicional.

    Kahneman e Tversky introduziram a ideia de heurísticas - atalhos mentais que as pessoas usam ao tomar decisões - e como esses atalhos podem levar a vieses sistemáticos. O seu trabalho mais famoso, a "Teoria das Perspectivas", desafia a noção tradicional de que os seres humanos são agentes racionais. Ao contrário, eles argumentaram que as pessoas frequentemente tomam decisões com base em vieses cognitivos, emoções e heurísticas, mesmo quando essas decisões parecem irracionais a partir de uma perspectiva puramente econômica.

    Especificamente para a gestão de riscos, as contribuições de Kahneman têm implicações profundas. Ele ajudou a identificar uma série de vieses cognitivos, como o viés de confirmação, o excesso de confiança e a aversão à perda, que podem influenciar a forma como os riscos são percebidos e gerenciados. Entender e estar ciente desses vieses é crucial para qualquer profissional que lida com avaliação e gestão de riscos.

     

    Viés de Confirmação

     

    O viés de confirmação é a tendência de procurar, interpretar e lembrar informações de uma maneira que confirme nossas crenças ou hipóteses prévias. É particularmente perigoso na gestão de riscos, pois pode levar a decisões baseadas em informações seletivas, em vez de uma análise abrangente.

    Exemplo 1 na Gestão de Riscos: Suponha que um gestor de investimentos acredite que uma determinada indústria está prestes a experimentar um crescimento significativo. Ele pode, inconscientemente, pesquisar e dar mais atenção a informações que confirmem essa crença, ignorando dados ou tendências que possam indicar o contrário. Como resultado, ele pode subestimar os riscos associados a investir nessa indústria.

     

    Excesso de Confiança

     

    Este viés refere-se à tendência que temos de superestimar nossa própria habilidade, conhecimento ou controle sobre uma situação. Em gestão de riscos, pode levar à subestimação de riscos potenciais porque acreditamos demais em nossa própria capacidade de prever ou controlar resultados.

    Exemplo 2 na Gestão de Riscos: Uma empresa instala um sistema de câmeras de segurança de última geração em suas instalações. O gerente de segurança, orgulhoso do novo sistema, acredita que agora o escritório está seguro contra invasões ou furtos. Essa confiança excessiva faz com que ele negligencie outras medidas de segurança fundamentais, como rondas regulares ou verificação de alarmes de presença. Um intruso, notando essas lacunas, pode então explorá-las para ganhar acesso não autorizado.

     

    Aversão à Perda

     

    A aversão à perda descreve a tendência humana de preferir evitar perdas em vez de obter ganhos equivalentes. Em outras palavras, a dor de perder algo é psicologicamente cerca de duas vezes mais potente do que o prazer de ganhar algo de valor similar. Isso pode influenciar decisões, levando as pessoas a tomar riscos desnecessários para evitar uma perda percebida.

    Exemplo 3 na Gestão de Riscos: A equipe de segurança cibernética identifica um software obsoleto que está em uso em vários computadores da empresa. Embora saibam que atualizar para uma versão mais recente seja mais seguro, também sabem que a atualização interromperia o trabalho e levaria a uma perda temporária de produtividade. Preocupados com essa "perda" imediata, eles decidem adiar a atualização. Isso coloca a empresa em risco, pois os cibercriminosos frequentemente exploram vulnerabilidades em softwares desatualizados.

    Estes vieses, identificados e explorados por Kahneman e outros, reforçam a necessidade de processos robustos de avaliação e gestão de riscos, que podem ajudar a contrabalançar essas tendências humanas naturais. Também destaca a importância de diversidade de pensamento e consulta colaborativa na tomada de decisões, pois diferentes perspectivas podem ajudar a identificar e corrigir possíveis vieses.

     

    Livro Rápido e Devagar: Duas Formas de Pensar

     

    Kahneman foi reconhecido por sua influente obra ao receber o Prêmio Nobel de Economia em 2002. Seu livro "Rápido e Devagar: Duas Formas de Pensar" se tornou uma leitura essencial, apresentando ao público em geral as complexidades da tomada de decisão e os vieses cognitivos que todos nós enfrentamos. A obra de Kahneman é um tratado profundo sobre a tomada de decisões humanas, fornece insights valiosos para a gestão de riscos e explora o complexo mundo da tomada de decisões humanas. Ele identifica duas formas distintas, mas interconectadas, de pensamento: o Sistema 1, que é rápido, intuitivo e emocional, e o Sistema 2, que é mais lento, deliberativo e lógico.

  • Sistema 1 e impulsividade na avaliação de riscos: O Sistema 1 opera automaticamente e rapidamente, com pouco ou nenhum esforço. Porém, é aqui que os vieses cognitivos, como o viés de confirmação e a aversão à perda, tendem a surgir. Na gestão de riscos, um gestor pode, por exemplo, fazer uma avaliação precipitada de uma situação devido a experiências passadas ou confiar demais em uma fonte de informação sem uma investigação mais aprofundada.
  • Sistema 2 e deliberação na avaliação de riscos: O Sistema 2 é ativado quando enfrentamos situações que requerem mais reflexão e ponderação. Na gestão de riscos, isso pode envolver a análise detalhada de relatórios, a solicitação de segundas opiniões ou a projeção de vários cenários futuros. Kahneman sugere que, enquanto o Sistema 2 é mais confiável, também é mais suscetível à "preguiça" e frequentemente aceita as sugestões do Sistema 1 sem questionar.
  • Implicações para a gestão de riscos: A consciência desses dois sistemas e de suas forças e fraquezas pode ajudar os gestores a tomar decisões mais informadas. Em situações de risco elevado, por exemplo, é aconselhável ativar deliberadamente o Sistema 2, exigindo um pensamento mais lento e crítico. Por outro lado, em situações de baixo risco, confiar na intuição do Sistema 1 pode ser suficiente.

    Kahneman também destaca a importância da experiência e expertise. Profissionais experientes muitas vezes desenvolvem intuições precisas que são produtos de seu Sistema 1, mas temperados por anos de prática e feedback.

    O entendimento de que temos dois sistemas de pensamento e que ambos têm suas forças e fraquezas oferece uma ferramenta poderosa para a gestão de riscos. Os gestores podem se beneficiar enormemente ao equilibrar as respostas rápidas e intuitivas com a deliberação ponderada, dependendo da complexidade e gravidade do risco em questão.

    O livro aborda uma série de ideias relacionadas à forma como percebemos e avaliamos riscos, bem como as emoções e intuições que influenciam nossas decisões sobre riscos. Segue algumas informações e insights importantes para termos em mente durante o processo de gestão de riscos:

  • Efeito da disponibilidade: a) O que é recentemente disponível em nossa memória influencia nossas avaliações e decisões. Após um desastre, as pessoas tendem a se preocupar mais e tomar medidas preventivas, mas essa preocupação e ação tendem a diminuir com o tempo à medida que a memória do desastre desaparece. b) As decisões são frequentemente baseadas no pior desastre já vivenciado, não necessariamente no pior desastre possível.
  • Disponibilidade, mídia e percepção: a) A percepção das pessoas sobre as causas de morte é distorcida pela cobertura da mídia, a qual tende a se concentrar em eventos mais raros e emocionalmente carregados. b) Eventos raros e emocionalmente carregados, como desastres, tendem a ser superestimados em termos de risco porque são mais disponíveis em nossa memória devido à exposição da mídia.
  • Disponibilidade e afeto: a) As emoções desempenham um papel crucial na forma como percebemos os riscos. Ideias ou pensamentos que evocam emoções fortes (principalmente medo) são mais facilmente acessíveis em nossa memória e, portanto, podem exagerar nossa percepção de risco. b) A "heurística do afeto" sugere que as pessoas muitas vezes tomam decisões baseadas em como se sentem sobre algo, em vez de uma avaliação objetiva do risco.
  • Consistência afetiva: a) As pessoas têm a tendência de ver riscos e benefícios como inversamente proporcionais. Se gostam de algo ou veem benefício nele, tendem a subestimar seus riscos, e vice-versa. b) Esta percepção pode ser facilmente manipulada. Se alguém é convencido dos benefícios de algo, ele pode automaticamente perceber que há menos risco associado a ele, mesmo na ausência de evidência real.
  • Implicações para a tomada de decisão: a) Emoções e percepções muitas vezes ofuscam avaliações objetivas, levando a decisões que podem não refletir os verdadeiros riscos. No mundo real, as decisões frequentemente envolvem avaliar trocas complexas entre benefícios e custos.
  • Em resumo, para a gestão eficaz de riscos, é crucial estar ciente das várias heurísticas e vieses que podem influenciar nossa percepção e decisão. Reconhecer que a disponibilidade, a cobertura da mídia e as emoções podem distorcer nossa avaliação dos riscos pode nos ajudar a tomar decisões mais informadas e equilibradas.

    No complexo mundo da tomada de decisões, as contribuições de Daniel Kahneman lançam luz sobre as nuances do entendimento humano acerca do risco. Este psicólogo renomado, laureado com o Prêmio Nobel, profundamente explorou os mistérios de nossos processos cognitivos, desvendando como avaliamos e reagimos às ameaças e incertezas que nos cercam. Ao abordar o conceito de risco através das lentes de Kahneman, somos compelidos a reconhecer a interação complexa entre nossa intuição, racionalidade e as influências externas que moldam nossa percepção.

  • Risco como uma invenção humana: Ao longo dos séculos, os seres humanos têm desenvolvido mecanismos para compreender e lidar com incertezas. A noção de risco é uma construção sociocultural. Kahneman destaca que as reações humanas a eventos imprevisíveis e ameaçadores muitas vezes são moldadas por processos cognitivos intuitivos. Antes da era moderna, eventos inesperados eram frequentemente interpretados como manifestações do destino ou da vontade divina. Com a progressão do conhecimento, passamos a estruturar essas incertezas sob a rubrica do "risco", permitindo-nos antecipar e, em certa medida, controlar tais eventualidades. Esta invenção permitiu aos seres humanos ter uma sensação de controle sobre o desconhecido e o imprevisível.
  • A subjetividade na definição de risco: Kahneman, em seu estudo sobre heurísticas e vieses, ilustra como a percepção de risco é frequentemente influenciada por fatores cognitivos. A forma como avaliamos o risco é profundamente afetada pelas informações prontamente disponíveis em nossa mente, uma ideia central para a heurística de disponibilidade. Além disso, normas culturais, sociais e experiências individuais também desempenham um papel vital na moldagem de nossas concepções sobre o que é "arriscado". O que é considerado "arriscado" em uma cultura pode ser visto como uma prática aceitável em outra. Assim, a definição de risco não é apenas um cálculo numérico, mas também é influenciada por normas culturais, sociais e individuais.
  • Risco como uma questão de poder: A contribuição de Kahneman para a psicologia cognitiva nos lembra que as narrativas em torno do risco muitas vezes são influenciadas por aqueles que detêm o poder. Estas narrativas são moldadas não apenas por avaliações objetivas, mas também por emoções, intuições e heurísticas. As organizações, governos e influenciadores, cientes ou não dos insights de Kahneman, muitas vezes enquadrarão os riscos de uma maneira que sirva aos seus interesses ou objetivos. Quem define o que é arriscado muitas vezes detém poder, seja ele político, social ou econômico e as decisões sobre como gerenciar ou mitigar riscos também são uma manifestação de poder.
  • Em resumo, Kahneman nos fornece uma lente através da qual podemos entender melhor a complexa tapeçaria da percepção humana de risco. Em um mundo repleto de incertezas, é crucial reconhecer os processos cognitivos que moldam nossas avaliações e decisões. A ideia de risco, conforme elucidada por Kahneman, nos lembra da interação inextricável entre cognição, emoção e poder na construção e interpretação do que consideramos arriscado.

     

    Confiança excessiva faz com se negligencie medidas de segurança complementares.

     

    Caso exemplo 15: Implementação de protocolos de segurança na empresa SafeGuard

    Contexto: A SafeGuard é uma empresa líder no setor de segurança residencial e comercial. Com uma vasta clientela que depende de seus sistemas para proteção, a empresa precisa garantir que suas soluções sejam impecáveis, inovadoras e à prova de falhas.

    Problema: Nos últimos anos, a SafeGuard percebeu um aumento no número de violações de segurança. Após uma análise, descobriu-se que a equipe tendia a superestimar a eficácia dos sistemas existentes, guiada pelo otimismo excessivo e confiando demais nas soluções tradicionais. Além disso, havia uma aversão à implementação de novas tecnologias, por medo de possíveis falhas iniciais.

    Solução: Baseando-se nas ideias de Kahneman sobre a falácia do planejamento e a aversão à perda, a liderança da SafeGuard decidiu reestruturar sua abordagem à inovação e avaliação de riscos.

    Eles introduziram uma abordagem de "visão de fora", onde, em vez de apenas confiar em suas experiências passadas, começaram a analisar tendências de segurança e violações em setores e empresas semelhantes. Isso ofereceu uma visão mais objetiva e realista da eficácia de seus sistemas.

    Adicionalmente, desenvolveram políticas de risco bem definidas, permitindo uma maior experimentação com novas tecnologias e abordagens, mas com salvaguardas claras e protocolos de revisão.

    Resultado: Com uma abordagem mais equilibrada e fundamentada, a SafeGuard conseguiu reduzir as violações de segurança em 70% no ano seguinte. A implementação de novas tecnologias, guiada por uma análise objetiva e abrangente, permitiu à empresa estar na vanguarda da inovação em segurança.

    Os clientes da SafeGuard, notando as melhorias e a proatividade da empresa, demonstraram maior confiança nos serviços oferecidos. A empresa também experimentou um crescimento em novos contratos, solidificando sua posição como líder no setor.

    Este exemplo fictício destaca como as teorias de Kahneman sobre tomada de decisão e gestão de riscos podem ser aplicadas em um contexto de segurança, conduzindo a melhores resultados operacionais e maior confiança do cliente.

     

    2.4. Amos Tversky (1937-1996)

     

    Amos Tversky, em colaboração com Daniel Kahneman, estabeleceu os pilares da economia comportamental ao explorar a tomada de decisões em cenários incertos. Ele identificou vieses cognitivos, como o viés da representatividade e da disponibilidade, mostrando que humanos frequentemente recorrem a atalhos mentais, ou heurísticas, resultando em avaliações imprecisas. A Teoria da Perspectiva, uma de suas principais contribuições, postula que avaliamos ganhos e perdas com base em um ponto de referência. Embora discutamos extensivamente sobre Kahneman, o trabalho de Tversky é intrinsecamente ligado a ele. Focaremos em nuances não cobertas anteriormente.

    Analisaremos a seguir o estudo Prospect Theory: An Analysis of Decision under Risk, desenvolvida por Daniel Kahneman e Amos Tversky, em oposição à teoria mais tradicional da "utilidade esperada". Focaremos em informações que podem ser relevantes para a gestão de riscos.

     

    Exemplo da Teoria da Utilidade Esperada

     

    Teoria da Utilidade Esperada: Esta teoria tem sido amplamente aceita tanto como um modelo normativo de escolha racional quanto como um modelo descritivo do comportamento econômico. Ela se baseia em três princípios: 1. Expectativa; 2. Integração de Ativos; e 3. Aversão ao Risco.

    A Teoria da Utilidade Esperada é fundamental na tomada de decisões sob incerteza. A ideia básica é que os indivíduos não apenas avaliam os resultados possíveis de uma decisão com base em seus valores, mas também consideram a probabilidade de cada resultado acontecer.

    Exemplo: Imagine que você está considerando jogar um jogo de azar. Há duas opções:

    - Opção A: Você recebe R$50 garantidos, sem ter que apostar.

    - Opção B: Joga-se uma moeda, e se der cara, você ganha R$100, mas se der coroa, você não ganha nada.

    Se estivermos considerando apenas o valor potencial, a Opção B parece mais atrativa porque você pode ganhar R$100. No entanto, com a Teoria da Utilidade Esperada, consideramos tanto o valor dos resultados quanto a probabilidade de cada resultado ocorrer.

    - Opção A: Utilidade esperada = R$50 (porque é garantido).

    - Opção B: Utilidade esperada = (0,5 x R$100) + (0,5 x R$0) = R$50.

    Ambas as opções têm a mesma utilidade esperada de R$50. Porém, dependendo da aversão ao risco do indivíduo, ele pode escolher a opção A para evitar a incerteza, mesmo que a utilidade esperada de ambas as opções seja a mesma.

    A Teoria da Utilidade Esperada sugere que, quando confrontados com decisões sob incerteza, os indivíduos avaliam as opções com base na combinação de utilidades potenciais e suas respectivas probabilidades. No entanto, como Tversky e Kahneman mostraram com sua Teoria da Perspectiva, a tomada de decisão real muitas vezes se desvia dessa abordagem idealizada, principalmente devido a vieses cognitivos e avaliações subjetivas de ganhos e perdas.

    Violação dos axiomas da Teoria da Utilidade Esperada

    Kahneman e Tversky identificaram situações em que as decisões tomadas pelas pessoas não seguem os axiomas da teoria da utilidade esperada, sugerindo que essa teoria não é um modelo descritivo adequado para tais situações.

    A Teoria da Utilidade Esperada, desenvolvida em seu formato básico, faz várias premissas sobre como as pessoas tomam decisões sob incerteza. No entanto, na prática, as pessoas frequentemente violam essas premissas.

    Exemplo - Imagine as seguintes situações:

    Situação 1: Você tem a opção de escolher entre:

    a) Uma garantia de ganhar R$3.000

    b) Uma probabilidade de 80% de ganhar R$4.000 (e 20% de ganhar R$0).

    Muitas pessoas escolheriam a opção (a) para garantir o ganho.

    Situação 2: Agora, você tem a opção de escolher entre:

    c) Uma garantia de perder R$3.000

    d) Uma probabilidade de 80% de perder R$4.000 (e 20% de chance de não perder nada).

    Nesta situação, muitas pessoas escolheriam a opção (d), tentando evitar a perda garantida e optando pelo risco de perder mais, mas com uma chance de não perder nada.

    No entanto, a Teoria da Utilidade Esperada sugere que se uma pessoa prefere (a) sobre (b) na Situação 1, ela também deveria preferir (c) sobre (d) na Situação 2. A mudança de preferência demonstra a aversão à perda, onde as perdas são mais pesadas do que ganhos equivalentes, uma descoberta central da Teoria da Perspectiva de Kahneman e Tversky.

    Este exemplo destaca uma violação do axioma da independência, um dos axiomas fundamentais da Teoria da Utilidade Esperada, que afirma que se um indivíduo prefere uma opção a outra, então ele também deve preferir essa opção quando combinada com qualquer outra opção probabilística. A resposta de muitas pessoas a esses cenários sugere que suas decisões são influenciadas por fatores não capturados pela Teoria da Utilidade Esperada, como a aversão à perda.

     

    Método de Escolhas Hipotéticas

     

    Os autores optaram por esse método para investigar a decisão das pessoas, apesar de reconhecerem suas limitações, pois métodos alternativos também apresentavam desafios significativos.

    Aqui está um exemplo que destaca o Método de Escolhas Hipotéticas, relacionado à gestão de riscos:

    Contexto: Imagine que você é um gestor de riscos em uma grande empresa e está considerando duas estratégias diferentes de seguro para proteger a empresa contra danos causados por desastres naturais, como terremotos ou inundações. O seguro é caro, e os desastres, embora devastadores, são raros. Exemplo:

    Situação 1: Você apresenta aos membros do conselho duas opções hipotéticas:

    a) Pagar R$1 milhão por ano por um seguro que cobre totalmente todos os danos em caso de desastre.

    b) Pagar R$500.000 por ano por um seguro que cobre apenas 50% dos danos.

    Você pede aos membros do conselho que imaginem que um desastre ocorreu e, com base nesse cenário hipotético, decidam qual seguro teria sido o melhor.

    Situação 2: Sem revelar o custo, você descreve a cada membro do conselho um cenário hipotético onde a empresa não tinha seguro, e um desastre ocorreu, resultando em perdas de R$50 milhões. Após isso, você revela as opções de seguro e seus custos, e pergunta qual opção eles teriam escolhido.

    Esse método, apesar de suas limitações, como a falta de realismo e a possibilidade de as pessoas não considerarem todos os fatores como o fariam em uma situação real, oferece insights valiosos. Ele permite entender a disposição das pessoas em aceitar riscos e o peso que dão às consequências potenciais. Em gestão de riscos, isso pode revelar o grau de aversão ao risco da equipe de decisão e ajudar a empresa a escolher uma estratégia de seguro que reflita essa disposição.

     

    Efeito de Certeza

     

    É um fenômeno em que a certeza de um ganho ou perda tem um impacto significativo na decisão de uma pessoa, muitas vezes de forma irracional quando avaliada pela teoria da utilidade esperada. O exemplo clássico é a escolha entre uma chance de 50% de ganhar R$ 1.000 e uma certeza de ganhar R$ 450. Vamos aplicar o Efeito de Certeza no contexto da gestão de riscos:

    Contexto: Imagine que você é o CFO de uma empresa de construção. A empresa está considerando se deve prosseguir com um grande projeto de construção que poderia trazer lucros significativos, mas também carrega riscos associados.

    Situação 1: Uma consultoria especializada analisa o projeto e fornece dois cenários:

    a) Um risco de 50% de que o projeto traga um lucro de R$ 10 milhões.

    b) Uma garantia de que, com algumas modificações no projeto e uma abordagem mais conservadora, o lucro será de R$ 4,5 milhões, sem riscos.

    Apesar do potencial de lucro mais alto no primeiro cenário, muitos tomadores de decisão, influenciados pelo Efeito de Certeza, podem optar pelo segundo cenário. A garantia de um lucro certo, embora menor, é vista como mais atraente do que a possibilidade de um lucro mais elevado, mas incerto.

    Situação 2: A mesma empresa de construção tem um contrato que garante um pagamento fixo de R$ 4,5 milhões após a conclusão do projeto. No entanto, eles são abordados por um investidor que oferece um investimento que tem 50% de chance de dobrar esse valor para R$ 9 milhões, mas também uma chance de 50% de reduzir o valor do contrato para R$ 5 milhões.

    Novamente, mesmo com o potencial de ganhar mais, muitos tomadores de decisão podem hesitar em aceitar a oferta do investidor devido ao Efeito de Certeza, preferindo o pagamento fixo garantido.

    Ambos os exemplos ilustram a ideia de que a certeza pode ter um peso desproporcional na tomada de decisões, mesmo quando, teoricamente, uma opção de maior risco pode ter uma utilidade esperada mais favorável. Em gestão de riscos, é crucial reconhecer e entender esses tipos de vieses cognitivos para fazer escolhas informadas.

     

    Efeito Reflexão

     

    Quando as opções de ganho são transformadas em opções de perda, as preferências das pessoas muitas vezes se invertem. Isso sugere que as pessoas têm aversão ao risco quando se trata de ganhos, mas buscam risco quando se trata de evitar perdas. A seguir está um exemplo relacionado à gestão de riscos que ilustra o Efeito Reflexão.

    Contexto: Imagine que você é um gestor de fundos e tem duas estratégias de investimento à sua disposição para um investidor.

    Situação 1 (Opções de Ganho): O investidor tem R$ 100.000 para investir.

    a) Uma estratégia de investimento garantirá um retorno de R$ 5.000 ao final de um ano.

    b) Uma segunda estratégia de investimento tem 50% de chance de dar um retorno de R$ 10.000 e 50% de chance de não dar retorno algum.

    Neste cenário, muitos investidores, sendo avessos ao risco em relação a ganhos, podem optar pela primeira estratégia, escolhendo o retorno garantido em vez da oportunidade de obter um retorno maior com um risco associado.

    Situação 2 (Opções de Perda): O mesmo investidor está enfrentando uma perda em seu portfólio de R$ 100.000.

    a) Uma estratégia garantirá uma perda de R$ 5.000 ao final de um ano.

    b) Uma segunda estratégia tem 50% de chance de não ter perda alguma e 50% de chance de resultar em uma perda de R$ 10.000.

    Neste cenário, muitos investidores, ao tentar evitar perdas, podem ser atraídos pela segunda estratégia, preferindo correr o risco de uma perda maior na esperança de evitar qualquer perda.

    O Efeito Reflexão destaca uma característica interessante e muitas vezes contraintuitiva da psicologia humana. Mesmo quando as quantidades de dinheiro em jogo são as mesmas, a possibilidade de ganho ou perda pode influenciar de maneira oposta as decisões das pessoas. Em gestão de riscos, esse entendimento é vital para orientar estratégias e entender a psicologia dos investidores.

    Operação de Cancelamento:

    Esta operação se aplica quando várias alternativas são comparadas. Se todas as alternativas compartilharem um mesmo componente, esse componente pode ser cancelado e não influenciar a decisão. Por exemplo, quando avaliamos a opção entre a perspectiva (200, 0,25; 100, 0,25) e a perspectiva (100, 0,50), o componente de ganhar 100 com uma probabilidade de 0,25 em ambas as perspectivas pode ser ignorado. A seguir um exemplo relacionado à gestão de riscos que demonstra a operação de Cancelamento.

    Contexto: Imagine que você é um gestor de investimentos e está avaliando duas opções de investimento diferentes para um cliente.

    Opção A:

    25% de chance de obter um retorno de R$ 200.

    25% de chance de obter um retorno de R$ 100.

    Opção B:

    50% de chance de obter um retorno de R$ 100.

    Ambas as opções A e B possuem um componente comum: uma chance de 25% de obter um retorno de R$ 100. Portanto, ao avaliar essas duas opções e tentar determinar qual é a melhor escolha, podemos "cancelar" esse componente comum. Isso significa que podemos ignorar a probabilidade de 25% de ganhar R$ 100, pois ela está presente em ambas as opções.

    Ao fazer isso, a decisão é simplificada para:

    Opção A: 25% de chance de obter um retorno de R$ 200.

    Opção B: 25% de chance adicional (totalizando 50%) de obter um retorno de R$ 100.

    Agora, a decisão torna-se uma avaliação entre a preferência por um risco maior de ganhar um retorno mais alto (Opção A) ou um risco menor com um retorno mais garantido, mas menor (Opção B).

    Este exemplo mostra como a operação de cancelamento pode ser útil na gestão de riscos ao simplificar decisões, focando nos aspectos distintos de cada opção e eliminando componentes comuns. Isso permite que os gestores de investimentos tomem decisões mais claras e fundamentadas.

    Implicações dessas teorias para a Gestão de Riscos:

  • Compreensão das decisões irracionais: A teoria da perspectiva fornece insights sobre porque indivíduos e organizações, por vezes, tomam decisões que parecem irracionais sob a teoria da utilidade esperada. Compreender esses vieses pode ajudar os gestores a tomar decisões mais informadas.
  • Previsibilidade das decisões: Ao entender os padrões de decisão identificados por Kahneman e Tversky, os gestores podem antecipar melhor as respostas de indivíduos ou grupos a diferentes cenários de risco.
  • Desenvolvimento de estratégias mais eficazes: Ao reconhecer que as pessoas podem ser avessas ao risco em situações de ganho, mas buscar risco em situações de perda, os gestores podem desenvolver estratégias que levem em conta essa dinâmica.
  • Educação e treinamento: Ao estar ciente desses vieses, as organizações podem desenvolver programas de treinamento para ajudar os gestores e outros tomadores de decisão a reconhecê-los e, possivelmente, superá-los.
  • Comunicação eficaz: A maneira como as opções são apresentadas pode influenciar significativamente a decisão de uma pessoa. Ao entender isso, as organizações podem comunicar riscos e recompensas de uma forma que seja mais compreensível e menos sujeita a vieses cognitivos.
  • Aversão à perda: As perdas geram sentimentos mais fortes do que ganhos de magnitude similar. Isto é, a dor de perder uma certa quantia é tipicamente mais intensa do que o prazer de ganhar a mesma quantia.
  • Diminuição da sensibilidade: Os indivíduos são mais sensíveis a variações em ganhos ou perdas quando estas ocorrem perto do ponto de referência do que quando estão mais afastadas. Por exemplo, a diferença entre ganhar 100 e 200 é mais palpável do que entre ganhar 1.100 e 1.200. As probabilidades também são transformadas na avaliação, e não são tratadas linearmente. Probabilidades extremamente baixas tendem a ser superestimadas e probabilidades muito altas tendem a ser subestimadas.
  • As ideias apresentadas no livro sobre Teoria da Perspectiva têm implicações profundas para a gestão de riscos e podem fornecer um quadro útil para compreender e abordar o comportamento humano em situações de risco. A teoria da perspectiva, portanto, oferece uma explicação mais flexível e adaptável para o comportamento humano em decisões sob risco, destacando os papéis do enquadramento e das avaliações relativas de ganhos e perdas em relação a um ponto de referência.

    A aceitação desta teoria implica que o comportamento humano não segue estritamente a teoria da utilidade esperada. Enquanto a teoria da utilidade esperada sugere que as decisões são baseadas em uma avaliação objetiva dos resultados e probabilidades, a teoria da perspectiva sugere que o enquadramento, os pontos de referência e as percepções subjetivas desempenham um papel crucial na tomada de decisões.

    Ao contrário da teoria tradicional da utilidade, a Teoria da Perspectiva postula que os indivíduos avaliam mudanças na riqueza ou bem-estar, em vez de estados absolutos. Em outras palavras, o que é mais importante não é o estado final, mas a diferença entre o estado inicial e final. Esse entendimento está em sintonia com como percebemos estímulos em muitos domínios sensoriais, onde o contexto e a mudança relativa são mais perceptíveis do que magnitudes absolutas.

    Referência:

  • Teoria da Perspectiva: Uma análise da decisão sob risco
  • Prospect Theory: An Analysis of Decision under Risk
  •  

    2.5. Ulrich Beck (1944-2015)

     

    Ulrich Beck, renomado sociólogo alemão, introduziu a teoria da Sociedade de Risco na década de 1980, argumentando que a sociedade moderna é marcada pela produção e gestão de riscos, substituindo as ameaças tradicionais por riscos invisíveis e transfronteiriços, como desastres ambientais e crises financeiras. Na visão de Beck, essa era de riscos modernos, amplificados pela mídia e tecnologia, exige uma gestão de riscos democrática, onde a responsabilidade é coletiva, envolvendo tanto especialistas quanto o público geral.

    No contexto de um estudo focado na gestão de riscos, há vários pontos relevantes a serem destacados dos pensamentos de Beck:

  • Sociedade de risco: A ideia mais central do trabalho de Beck é a noção da "Sociedade de Risco", onde ele destaca que os riscos modernos (ambientais, tecnológicos, financeiros etc.) são produzidos pela sociedade e são inerentemente globais e transfronteiriços. Esta perspectiva é diretamente relevante para qualquer discussão sobre gestão de riscos moderna, especialmente considerando que muitos riscos atuais não respeitam fronteiras nacionais ou setoriais.
  • Incontrolabilidade científico-tecnológica: Beck discute a ideia de que os avanços científicos e tecnológicos, que muitas vezes são celebrados como triunfos da modernidade, vêm com efeitos colaterais significativos e às vezes imprevisíveis. Isto é vital para a gestão de riscos, pois lembra aos praticantes que, mesmo com as melhores intenções, novas inovações podem introduzir riscos desconhecidos.
  • Modernização reflexiva: A teoria de Beck sobre a modernização reflexiva sugere que a sociedade está cada vez mais consciente e reflexiva sobre os riscos que ela mesma cria, levando a uma constante revisão e adaptação. Esta é uma noção útil para a gestão de riscos, pois sugere que a gestão de riscos não é um processo estático, mas sim um em constante evolução, em resposta às mudanças no ambiente de risco.
  • Cosmopolitismo: O foco de Beck no cosmopolitismo e nas relações transnacionais também é relevante. À medida que o mundo se torna mais interconectado, a gestão de riscos não pode mais ser uma atividade isolada a um país ou setor. Em vez disso, exige uma abordagem mais global e cooperativa.
  • Individualização e sociedade do risco: O aumento da individualização, juntamente com os riscos associados à modernidade, cria desafios para as estruturas tradicionais da sociedade e requer novas abordagens para gerenciar esses riscos. A gestão de riscos, portanto, precisa levar em conta os efeitos e implicações dessa crescente individualização.
  • Pensamento político: As ideias de Beck sobre a necessidade de readaptação das normas existentes, a diminuição da influência do mercado na vida das pessoas e a promoção de maior cooperação entre os estados são relevantes para a criação de políticas públicas e estruturas que podem apoiar uma gestão de riscos eficaz em nível transnacional.
  • A obra e as teorias de Ulrich Beck oferecem uma série de insights valiosos para qualquer estudo ou discussão sobre gestão de riscos na era moderna. Seu foco na interconexão global, os riscos intrínsecos à modernidade e a necessidade de uma abordagem reflexiva e adaptável tornam seu trabalho especialmente relevante para este campo.

    Ulrich Beck, com sua notável publicação "Sociedade do Risco", estabeleceu um marco intelectual para uma formação teórica produtiva e pertinente até hoje. Eva Illouz descreveu a obra como "brilhante", observando que ela nem acusava nem defendia o capitalismo, mas avaliava suas consequências e examinava como o capitalismo reestruturou instituições, confrontando-as com destruições autoimpostas e mapeando-as em uma nova contabilidade que inclui riscos associados à exploração dos recursos naturais e às inovações técnicas.

    Beck gerou discussão ao postular na "sociedade de risco" que as classes sociais perdem importância diante da produção social de riscos. Ele usou o adágio de que "a necessidade é hierárquica, a poluição é democrática". Beck argumentou que, embora as desigualdades de classe nas sociedades contemporâneas continuem e muitas vezes cresçam, na era globalizada do início do século XXI, isso pode ter um significado diferente, levando a radicalizações nas desigualdades sociais. Ele defendeu que a ideia tradicional de classe oferece uma visão demasiado simplista das desigualdades profundas da era moderna. Zygmunt Bauman, citado por Beck, salientou que a pobreza moderna é distintamente terrível porque os pobres não são mais considerados necessários, contrastando com as visões marxistas do proletariado que os veem como úteis no processo de trabalho.

    Beck foi criticado por ter uma visão demasiado indiferente e catastrófica do risco, base para sua crítica ao conceito de classe. Em contrapartida, alguns sugerem que devemos incorporar a distribuição social dos riscos nas categorias de classe para desenvolver uma nova teoria crítica das classes na sociedade de risco, destacando a conexão entre pobreza, vulnerabilidade social e acumulação de risco.

    No mesmo ano em que Beck publicou "Sociedade do Risco", ocorreu o desastre nuclear de Chernobyl, ao qual ele fez referência, argumentando que os perigos modernos, como a poluição nuclear, são a antítese do progresso da sociedade industrial do século XIX. Os perigos modernos, diferentemente das catástrofes do passado, são causados pelas ações humanas, e não por forças da natureza ou divindades. Beck também fez uma distinção entre risco e desastre, argumentando que o risco antecipa desastres futuros, que, por sua vez, orientam esforços de prevenção. Ele previu que os riscos globais modernos, como os desastres nucleares, desafiam as fundações das sociedades modernas, sendo caracterizados por suas incertezas, incontrolabilidades e ignorâncias.

    A "Sociedade de Risco" de Beck foi reconhecida pela International Sociological Association (ISA) como uma das 20 obras sociológicas mais significativas do século. Ele expandiu seus argumentos para abordar a modernidade reflexiva, sugerindo que a sociedade industrial é confrontada pelas consequências de sua própria modernização. A modernização reflexiva, segundo Beck, também leva a formas de individualização da desigualdade social.

    Para além da sociologia, Beck argumentou que não devemos nos limitar a abordagens e teorias de pesquisa convencionais. Nos estudos históricos, por exemplo, ele defendia a pesquisa da mudança histórica à luz de aspectos teóricos sociológicos apropriados. Ele acreditava que a história deveria levar em conta os efeitos colaterais não intencionais.

    Armin Nassehi reconheceu o trabalho de Beck por sua habilidade em conectar termos e problemas ao mundo político, dando ao público as ferramentas para compreender o mundo em rápida mudança. Tal como Jürgen Habermas, Beck buscava renovar a tradição da teoria crítica, embora cada um tenha abordado o desafio de maneiras diferentes. Ambos buscavam engajar um público intelectual que poderia combinar a comunicação política com uma visão científica.

     

    No mesmo ano em que Beck publicou "Sociedade do Risco", ocorreu o desastre nuclear de

     

    Caso exemplo 16: Aplicação do legado de Beck na gestão e riscos em uma fábrica de produtos químicos

    Contexto: A "QuimTech," uma empresa de produtos químicos, opera há décadas produzindo solventes e outros produtos para a indústria. Recentemente, a empresa começou a perceber uma crescente preocupação do público em relação aos impactos ambientais e saúde humana causados por seus produtos. Essas preocupações têm origem nos frequentes debates públicos sobre o "risco" e a forma como a sociedade percebe e lida com ele, uma temática central na teoria da sociedade de risco de Ulrich Beck.

    Problema: Embora a QuimTech tenha sempre seguido os padrões regulamentares, o aumento da conscientização pública sobre questões de risco fez com que seus clientes, especialmente empresas com práticas de responsabilidade social corporativa robustas, começassem a exigir informações mais transparentes sobre os riscos associados aos produtos da QuimTech. Isso se tornou um problema, pois impactava diretamente a reputação da empresa e, consequentemente, suas vendas.

    Solução: Inspirados pelo trabalho de Beck, a liderança da QuimTech decidiu:

  • Reconhecimento do Risco: Iniciar um processo profundo de autoavaliação e reconhecimento dos riscos inerentes à sua produção e aos produtos que comercializa.
  • Engajamento Público: Criar canais de diálogo com a comunidade, clientes e stakeholders, permitindo uma discussão aberta sobre preocupações e riscos. Esse engajamento teve como objetivo não apenas informar o público, mas também aprender com suas perspectivas e preocupações.
  • Transparência: Investir em tecnologia e práticas para aumentar a transparência da cadeia de produção. Isso incluiu a publicação de relatórios detalhados sobre práticas de segurança, impactos ambientais e estudos sobre os riscos dos produtos.
  • Inovação: Com o feedback do público e uma compreensão mais profunda dos riscos associados à sua produção, a QuimTech iniciou um programa de inovação para desenvolver produtos mais seguros e processos de produção mais ecológicos.
  • Resultado: Após implementar essas mudanças, a QuimTech experimentou uma série de benefícios:

  • Reputação melhorada: Com a transparência e o engajamento ativo, a empresa começou a ser vista como uma líder em responsabilidade ambiental e gestão de riscos em sua indústria.
  • Aumento nas vendas: Com produtos mais seguros e uma imagem aprimorada, muitos clientes preferiram a QuimTech em detrimento de concorrentes menos transparentes.
  • Redução de custos: As inovações em processos de produção mais ecológicos levaram a uma redução no consumo de recursos e energia, resultando em economias significativas.
  • Preparação para o futuro: A abordagem proativa da QuimTech em relação à gestão de riscos significou que estavam melhor preparados para enfrentar futuros desafios regulatórios ou de mercado relacionados a questões de risco.
  • Este exemplo ilustra como as ideias de Beck sobre a sociedade de risco podem ser aplicadas no mundo corporativo para melhorar a gestão de riscos, reputação e desempenho financeiro.

     

    2.6. John Allen Paulos (1945)

     

    John Allen Paulos, nascido em 4 de julho de 1945, é um renomado professor de matemática na Temple University e um influente escritor e palestrante sobre alfabetização matemática. Além da sua sólida formação acadêmica, ele é reconhecido internacionalmente por seu crítico olhar sobre a inumeracia, destacada em seu best-seller Innumeracy: Mathematical Illiteracy and its Consequences (1988), onde examina os equívocos comuns do público em relação aos números e incentiva uma visão quantitativa do mundo. Além de sua carreira acadêmica, Paulos também escreveu colunas matemáticas para o The Guardian, educou jornalistas em alfabetização quantitativa na Columbia University e foi premiado por sua habilidade excepcional em comunicar conceitos matemáticos ao público em geral.

    Além disso, Paulos não se limita a uma única disciplina; ele frequentemente combina disciplinas díspares, abordando temas como a base matemática e filosófica do humor, aspectos quantitativos da narrativa, e a bolsa de valores. Esta amplitude é evidente em suas publicações, como "A Mathematician Reads the Newspaper" (1995) e "A Mathematician Plays the Stock Market" (2003). Conheça a bibliografia de Paulos clicando aqui.

    Ideias importantes para a gestão de riscos retiradas das publicações de Paulos:

  • Má compreensão da escala: Uma pessoa inumerada pode ter dificuldade em compreender a diferença entre um milhão e um bilhão, levando a percepções errôneas sobre, por exemplo, gastos governamentais ou lucros corporativos. Exemplo: Se alguém ouve que a empresa X fez um lucro de um bilhão e uma empresa Y fez um lucro de um milhão, sem entender a escala, essa pessoa pode acreditar que ambas as empresas são igualmente prósperas.
  • Erros na percepção de probabilidade: Pessoas inumeradas frequentemente têm dificuldade em entender conceitos de chance e risco. Isso pode levar a decisões irracionais. Exemplo: Se uma loteria anuncia que alguém tem 1 chance em 300 milhões de ganhar o prêmio principal, uma pessoa inumerada pode achar que comprar vários bilhetes significativamente aumentará suas chances, quando, na realidade, mesmo comprando 100 bilhetes, as chances ainda seriam extremamente baixas.
  • Falha em interpretar estatísticas: A inumeracia pode levar as pessoas a tirar conclusões erradas ao interpretar estatísticas, seja em estudos médicos, pesquisas de opinião, análises financeiras ou avaliação de riscos. Exemplo: Quando um estudo afirma que consumir um determinado alimento aumenta o risco de uma doença em 50%, uma pessoa inumerada pode se assustar. No entanto, se o risco original era de 2%, um aumento de 50% leva o risco para apenas 3% - ainda uma pequena probabilidade.
  • Susceptibilidade a falácias: Sem uma base matemática sólida, indivíduos podem facilmente cair em armadilhas lógicas ou serem enganados por apresentações enganosas de dados. Exemplo: Um vendedor pode dizer que um produto está em promoção, com 30% de desconto, e depois mais 20% de desconto no caixa. Uma pessoa inumerada pode acreditar erroneamente que isso é igual a um desconto total de 50%, quando na realidade o desconto total seria de 44%.
  • A inumeracia, como Paulos aponta em seu livro, é uma lacuna perigosa em nossa educação e percepção. Em uma sociedade cada vez mais orientada por dados, a capacidade de entender e interpretar números é crucial. Sem ela, estamos sujeitos a tomar decisões mal-informadas com base em mal-entendidos, equívocos ou simplesmente medos irracionais. Em um mundo complexo, onde as decisões baseadas em risco são cotidianas, a inumeracia não é apenas uma falha pessoal, mas uma ameaça à tomada de decisões racionais e informadas.

    Falácias da Lógica em Decisões - A matemática não é apenas sobre números; é sobre lógica, raciocínio e compreensão. John Allen Paulos enfatiza que as falácias lógicas, combinadas com a inumeracia, podem gravemente comprometer nossa capacidade de tomar decisões corretas, especialmente em cenários de risco. Aqui estão algumas das falácias lógicas comuns e como elas podem impactar a tomada de decisões:

  • Falácia do apostador (Gambler’s Fallacy): Esta é a crença de que eventos independentes anteriores podem afetar o resultado de um evento futuro. Exemplo: Suponha que em um jogo de cara ou coroa, a moeda tenha caído em "cara" cinco vezes consecutivas. Alguém que acredite na falácia do apostador pode pensar que a próxima jogada tem uma chance maior de ser "coroa", mesmo que cada jogada seja um evento independente com uma probabilidade de 50%.
  • Falácia da causa falsa (Post Hoc Ergo Propter Hoc): Esta falácia ocorre quando se assume que porque um evento aconteceu depois de outro, o primeiro evento causou o segundo. Exemplo: Se uma empresa adotou uma nova estratégia de marketing e, na semana seguinte, as vendas aumentaram, pode ser tentador, mas equivocado, concluir que a nova estratégia foi a única razão para o aumento, sem considerar outros fatores.
  • Falácia da confirmação: Refere-se à tendência das pessoas de procurar e lembrar apenas as informações que confirmam suas crenças existentes. Exemplo: Um investidor que acredita que uma determinada ação é um bom investimento pode apenas prestar atenção nas notícias positivas sobre a empresa e ignorar as notícias negativas, levando a uma visão distorcida e decisões de investimento potencialmente ruins.
  • Falácia da proporção: Acreditar que a relação entre duas categorias de eventos permanece constante, mesmo quando os números absolutos de eventos em cada categoria mudam. Exemplo: Se 5 em cada 10 maçãs de uma fazenda são vermelhas e 10 em cada 20 de outra fazenda também são, pode-se incorretamente concluir que a primeira fazenda tem uma proporção maior de maçãs vermelhas, mesmo que ambas as fazendas tenham 50%.
  • Paulos argumenta que tais falácias, amplificadas pela inumeracia, podem levar a erros graves em avaliações de risco. Por exemplo, uma má compreensão das probabilidades pode fazer com que as pessoas superestimem os riscos de eventos raros (como acidentes de avião) enquanto subestimam riscos de eventos mais comuns (como acidentes de carro).

    O poder de um pensamento lógico e matemático robusto é que ele oferece uma base sólida para avaliar informações, entender relações de causa e efeito e tomar decisões informadas, especialmente em contextos em que o risco está envolvido. Em um mundo onde somos constantemente bombardeados com informações, a capacidade de discernir e decidir corretamente nunca foi tão crucial.

    Percepção distorcida de risco - Em um mundo amplamente dominado pela mídia e por histórias emocionais, nossa percepção de risco muitas vezes se desvia da realidade estatística. John Allen Paulos habilmente ilustra como a inumeracia desempenha um papel crucial nessa distorção. Vamos explorar essa ideia com exemplos práticos.

  • Efeito de impacto da mídia: Eventos raros, mas dramáticos, tendem a receber uma cobertura de mídia desproporcionalmente alta. Isso pode levar o público a superestimar a probabilidade de tais eventos. Exemplo: Acidentes de avião, embora extremamente raros, são amplamente divulgados na mídia. A cobertura intensa pode fazer com que as pessoas acreditem que voar é perigoso. Em contraste, acidentes de carro, que são muito mais comuns, muitas vezes não recebem a mesma atenção, mesmo sendo estatisticamente mais perigosos. Assim, uma pessoa pode evitar voar devido ao medo, mas dirigir longas distâncias sem hesitação, mesmo que estatisticamente o último seja mais arriscado.
  • Efeito de novidade e estranheza: Riscos desconhecidos ou novos são percebidos como mais ameaçadores do que os conhecidos, mesmo se forem objetivamente menos arriscados. Exemplo: Considere a resposta inicial à adoção de tecnologias como os telefones celulares. Havia temores de que a radiação dos telefones pudesse causar câncer, apesar das evidências limitadas. Por outro lado, a exposição diária à luz solar, um risco conhecido de câncer de pele, pode ser subestimada ou ignorada por muitos.
  • Efeito de falta de controle: Sentir que não temos controle sobre uma situação pode amplificar nossa percepção de risco. Exemplo: As pessoas podem sentir que têm pouco controle sobre o voo de um avião, enquanto sentem que têm controle total quando estão dirigindo, mesmo que estatisticamente estejam mais seguras no avião. Esta ilusão de controle pode levar a uma avaliação errada dos riscos associados a cada atividade.
  • Paulos destaca que, sem uma compreensão numérica adequada, somos facilmente influenciados por percepções distorcidas de risco. A chave para tomar decisões mais informadas não é apenas compreender os números, mas também reconhecer e ajustar as percepções influenciadas por fatores psicológicos e de mídia. Em uma era de informação sobrecarregada, a capacidade de avaliar riscos de maneira objetiva e informada é essencial para a tomada de decisões pessoais e políticas sábias.

    Relevância na era digital - A explosão digital e a era da informação trouxeram consigo um mar de dados e informações que impactam praticamente todos os aspectos de nossas vidas. No entanto, a capacidade de navegar por esse mar requer mais do que simplesmente ter acesso a ele; requer a habilidade de interpretar, avaliar e tomar decisões informadas com base nesses dados. John Allen Paulos sublinhou a crescente importância da educação matemática neste contexto. Vamos entender isso mais detalhadamente com exemplos práticos:

  • Tomada de decisão baseada em dados: Hoje em dia, as empresas coletam vastas quantidades de dados sobre seus clientes. Entender esses dados e extrair insights relevantes requer uma compreensão profunda da matemática. Exemplo: Se uma loja online vê um aumento nas vendas de um produto específico após uma determinada campanha de marketing, pode ser tentador assumir que a campanha foi a razão do aumento. No entanto, sem uma análise estatística adequada, a loja pode estar ignorando outros fatores que influenciaram o aumento nas vendas, como descontos de concorrentes ou tendências de mercado.
  • Interpretando algoritmos: Muitos aspectos de nossas vidas digitais são governados por algoritmos, desde as notícias que lemos até os produtos que nos são recomendados para compra. Exemplo: Um usuário que frequentemente clica em notícias sensacionalistas em uma plataforma de mídia social pode começar a ver mais do mesmo tipo de conteúdo. Sem compreender o papel que os algoritmos desempenham na curadoria de seu feed, o usuário pode acreditar erroneamente que esses temas são os mais predominantes ou importantes na atualidade, levando a uma visão distorcida do mundo.
  • Confiando em inteligência artificial: Com a adoção generalizada de sistemas de IA, torna-se vital entender suas limitações e como eles tomam decisões. Exemplo: Suponha que um médico esteja usando um sistema de IA para ajudar no diagnóstico de doenças. Se o médico não compreende a base matemática e estatística de como o sistema chega a suas conclusões, ele pode confiar cegamente nas sugestões do sistema, potencialmente levando a erros médicos.
  • Paulos argumenta que, na era digital, ser "analfabeto" em matemática não é mais uma opção. O mundo moderno, com sua dependência de dados e algoritmos, exige uma população que possa avaliar criticamente as informações que recebe, identificar tendências genuínas e discernir o significado real por trás dos números. Uma compreensão robusta da matemática é mais do que uma habilidade acadêmica; é uma necessidade para a cidadania informada e a tomada de decisões responsável em uma sociedade interconectada.

     

    Muitos aspectos de nossas vidas digitais são governados por algoritmos, desde as notícias que lemos até os produtos que nos são recomendados para compra.

     

    Caso exemplo 17: Gestão de riscos na era da big data - Caso segurança de dados urbanos

    Contexto: Em uma cidade com ambições de se tornar uma metrópole inteligente, uma série de sensores e câmeras foram instalados para coletar dados sobre tráfego, poluição, consumo de energia e comportamento do cidadão. Esses dados seriam analisados e usados para melhorar a qualidade de vida, otimizando serviços públicos. Toda essa informação era armazenada em um vasto centro de dados.

    Problema: Uma organização de direitos civis expressou preocupação com a segurança desses dados. Existia o temor de que, caso esses dados caíssem nas mãos erradas, poderiam ser usados de maneira prejudicial, como para vigiar cidadãos ou vender informações para empresas sem escrúpulos. Além disso, havia a questão da inumeracia: muitos cidadãos não compreendiam a escala e importância dos dados coletados, e consequentemente, os riscos associados.

    Solução: Inspirados pelos ensinamentos de John Allen Paulos, os responsáveis pelo projeto decidiram criar uma série de programas de educação pública sobre big data, segurança e alfabetização matemática. Estes programas foram projetados para mostrar, de maneira prática e acessível, como os dados eram coletados, armazenados, analisados e, acima de tudo, protegidos.

    Paulos sempre enfatizou a importância de compreender os números e a estatística. Usando essa abordagem, os workshops mostravam aos cidadãos exemplos concretos de como a inumeracia poderia distorcer a percepção dos riscos. Por exemplo, ao comparar a probabilidade de um grande vazamento de dados com riscos mais comuns, como acidentes de trânsito.

    Além da educação, o projeto também implementou medidas robustas de segurança cibernética, garantindo que os dados estivessem protegidos contra possíveis ataques. Uma equipe de especialistas foi contratada para simular ataques ao sistema, testando sua resistência e identificando potenciais vulnerabilidades.

    Resultado: Com o esforço combinado de educação e segurança aprimorada, a confiança dos cidadãos no projeto da cidade inteligente cresceu. Eles passaram a ter uma compreensão mais clara dos benefícios e riscos associados à coleta e análise de big data.

    Os workshops e sessões de treinamento ajudaram a dissipar medos e mal-entendidos. Além disso, o fortalecimento da segurança cibernética garantiu que os dados permanecessem seguros, e a cidade pôde prosseguir com sua iniciativa de metrópole inteligente, tendo a confiança e o apoio de seus cidadãos.

    Neste exemplo, vemos a fusão de big data e segurança, ilustrando como uma abordagem inspirada por Paulos pode ser crucial para abordar preocupações e riscos em um mundo cada vez mais orientado a dados.

    John Allen Paulos emergiu como uma figura seminal na moderna compreensão da matemática e sua relação com a tomada de decisões e percepções de risco. Em uma era saturada de informações, a claridade que ele trouxe sobre os perigos da inumeracia é mais relevante do que nunca. Através de suas obras e insights, Paulos não apenas destacou a importância da educação matemática para o indivíduo, mas também para a sociedade em geral, especialmente no contexto da era digital e da big data. Seu legado nos convida a refletir criticamente sobre as informações que consumimos e a desenvolver uma compreensão matemática sólida para navegar com confiança em um mundo complexo e orientado por dados.

     

    2.7. Nassim Nicholas Taleb (1960)

     

    Nassim Nicholas Taleb, nascido em 1960 no Líbano, é um destacado teórico sobre incertezas e riscos, particularmente em relação a "cisnes negros", eventos surpreendentes de grande impacto. Com experiências moldadas pela Guerra Civil Libanesa e uma carreira que inclui investimentos bem-sucedidos em eventos imprevistos e atuações em bancos globais renomados, Taleb advoga que prospera quem abraça o caos ao invés de evitá-lo. Atualmente, ele é professor emérito de engenharia de risco na Universidade de Nova York e enfatiza a importância de ter "pele em jogo" ao tomar decisões significativas.

    A seguir, um breve resumo das informações mais relevantes sobre Taleb:

  • Obras e publicações: Taleb é o autor da série "Incerto", que é um ensaio filosófico em cinco volumes sobre incerteza. Dois dos títulos mais notáveis desta série são "The Black Swan" (O Cisne Negro) e "Antifragile". "The Black Swan" foi considerado pelo Sunday Times como um dos 12 livros mais influentes desde a Segunda Guerra Mundial.
  • Carreira acadêmica: Taleb foi professor em várias universidades e é Distinguished Professor of Risk Engineering na New York University Tandon School of Engineering desde 2008. Ele também é co-editor-chefe do periódico acadêmico Risk and Decision Analysis desde 2014.
  • Atuação no mercado financeiro: Ele tem uma extensa experiência no setor financeiro, tendo sido gestor de hedge fund e trader de derivativos. Ele é atualmente listado como consultor científico da Universa Investments. Taleb se destacou por criticar os métodos de gerenciamento de risco usados pelo setor financeiro, prevendo e lucrando com a crise financeira de 2007-2008.
  • Conceitos chave: Uma das propostas mais notáveis de Taleb é o conceito de "sociedade robusta ao cisne negro", ou seja, uma sociedade que pode resistir a eventos difíceis de prever. Ele introduziu o termo "antifragilidade" para descrever sistemas que se beneficiam e crescem a partir de certos tipos de eventos aleatórios, erros e volatilidade.
  • Visão sobre finanças: Além de sua experiência prática, Taleb tem uma perspectiva filosófica sobre finanças, considerando-se mais um epistemólogo da aleatoriedade do que um homem de negócios. Ele usou sua carreira em trading para buscar independência e liberdade das autoridades tradicionais.
  • Ativismo: Após a crise financeira de 2007, Taleb tornou-se um ativista pela criação de uma "sociedade robusta ao cisne negro". Ele acredita firmemente em sistemas que não são apenas resistentes, mas que se beneficiam do caos e da incerteza.
  • Agora vamos explorar suas principais contribuições para a gestão de riscos através de seus livros, conceitos e filosofia.

     

    Cisne Negro

     

    A ideia do "Cisne Negro" é uma das contribuições mais notáveis de Nassim Nicholas Taleb à gestão de riscos e à forma como pensamos sobre eventos imprevisíveis. O termo remonta à antiga crença de que todos os cisnes eram brancos, pois ninguém no Ocidente havia visto um cisne negro. Isso foi até os exploradores chegarem à Austrália no século XVII e se depararem com cisnes que, de fato, eram negros. O evento desafiou as suposições existentes e redefiniu o conhecido.

    Taleb usou esse fenômeno como uma metáfora para descrever certos tipos de eventos:

    Improbabilidade: Os Cisnes Negros são eventos que estão fora das expectativas normais e são extremamente difíceis de prever.

  • Fora das expectativas normais: A ideia de que um evento é "improvável" não se refere apenas à sua raridade estatística. Significa que o evento está tão fora das expectativas normais que, muitas vezes, não é sequer considerado como uma possibilidade. Em termos de nosso conhecimento anterior, é um evento que está além do que chamamos de "conhecido conhecido" e muitas vezes reside no reino do "desconhecido desconhecido". Usando o exemplo do próprio cisne negro, a ideia prevalecente na Europa era que todos os cisnes eram brancos, de modo que a existência de um cisne negro era um conceito inimaginável.
  • Limitações dos modelos existentes: Muitos dos métodos que usamos para prever ou entender o mundo baseiam-se em modelos estatísticos ou teorias que assumem uma certa regularidade ou distribuição. Em finanças, por exemplo, muitos modelos assumem uma distribuição normal (ou gaussiana) de retornos. No entanto, esses modelos têm "caudas finas", o que significa que subestimam a probabilidade de eventos extremos. Os Cisnes Negros ocorrem nas "caudas" dessas distribuições e são, por definição, eventos que esses modelos veem como quase impossíveis.
  • Natureza imprevisível: A ideia não é apenas que os Cisnes Negros são raros, mas que são inerentemente imprevisíveis dentro do quadro de referência existente. Isso não significa que sejam absolutamente imprevisíveis em todos os contextos, mas que, com a informação e as teorias disponíveis no momento, não seriam previstos. Após a ocorrência de um Cisne Negro, pode haver uma corrida para entender e explicar o evento, muitas vezes resultando em um novo quadro ou modelo.
  • Exceções e não a regra: É importante notar que a vasta maioria dos eventos no mundo não são Cisnes Negros. A maioria dos eventos é, de fato, previsível ou ao menos compreensível dentro dos modelos existentes. Os Cisnes Negros são notáveis não pela sua frequência, mas pelo seu impacto extremo e pela incapacidade dos sistemas existentes de antecipá-los. Em resumo, a improbabilidade, no contexto dos Cisnes Negros, refere-se a eventos que são tão raros e inesperados que desafiam a compreensão e previsão existentes. Esses eventos nos lembram da falibilidade dos nossos modelos e da necessidade de estarmos constantemente atentos às limitações do nosso conhecimento.
  • Impacto extremo: O "impacto extremo" é outro pilar fundamental da teoria do Cisne Negro de Nassim Taleb. Quando ocorrem, têm um efeito maciço e transformador, frequentemente alterando a paisagem de uma indústria, economia ou sociedade como um todo. Vamos detalhar um pouco mais esse conceito:

  • Alterações radicais: Cisnes Negros não são apenas eventos raros e imprevisíveis; eles têm a capacidade de causar mudanças drásticas e irrevogáveis. Por exemplo, eventos como a crise financeira de 2008, os ataques terroristas de 11 de setembro de 2001 ou a rápida propagação da internet nos anos 90, todos qualificam-se como Cisnes Negros devido à magnitude de seu impacto.
  • Repercussões de longo alcance: O efeito de um Cisne Negro não se limita ao ponto inicial de impacto. Ele pode desencadear uma cascata de eventos subsequentes que amplificam e prolongam suas consequências. Por exemplo, o colapso de um grande banco pode desencadear uma crise financeira, que por sua vez pode causar uma recessão, resultando em desemprego em massa e reestruturação econômica.
  • Inovação e disrupção: Nem todos os Cisnes Negros são negativos. Alguns podem desencadear inovações e transformações positivas. A invenção do transistor, por exemplo, que eventualmente levou à revolução da computação, pode ser vista como um Cisne Negro devido ao seu impacto extremo e imprevisibilidade à época.
  • Redefinição de paradigmas: Os Cisnes Negros podem desafiar e muitas vezes invalidar as teorias, modelos e paradigmas existentes. Posteriormente, eles podem necessitar que profissionais, acadêmicos e até sociedades redefinam sua compreensão de como certos sistemas funcionam. Esse processo de reavaliação e adaptação pode ser tumultuado e desafiador.
  • Reação e resiliência: O impacto extremo de um Cisne Negro também pode testar a resiliência e adaptabilidade de sistemas e sociedades. Em muitos casos, a reação a um Cisne Negro pode determinar se seus efeitos são temporários ou duradouros. Por exemplo, a capacidade de uma sociedade se unir, aprender e se adaptar após uma crise pode mitigar algumas das consequências mais duradouras do evento.
  • Redefinição da preparação: Após a ocorrência de um Cisne Negro, há uma tendência natural de preparar-se para eventos semelhantes no futuro, mesmo que sua repetição exata seja improvável. Isso pode levar a uma redefinição de como as instituições e sociedades se preparam para incertezas e riscos. Exemplo: os desdobramentos sociais decorrentes do Covid 19.
  • Em suma, o "impacto extremo" de um Cisne Negro não se refere apenas à magnitude imediata do evento, mas também às amplas e profundas ramificações que ele pode ter em diversos sistemas, sejam eles econômicos, sociais, tecnológicos ou políticos. Esses eventos desafiam nossa compreensão, preparação e capacidade de resposta, forçando uma reavaliação de muitas das suposições fundamentais que sustentam nossas atividades e crenças diárias.

    Explicabilidade retrospectiva e viés retrospectivo: Após sua ocorrência, as pessoas tentam racionalizar o evento e explicá-lo como se fosse previsível. A "explicabilidade retrospectiva" é um conceito intrigante, pois destaca a tendência humana de olhar para trás e tentar construir uma narrativa lógica para eventos imprevistos. Vamos nos aprofundar:

  • Busca por significado: Os seres humanos têm uma necessidade intrínseca de encontrar padrões e significados nos eventos. Quando ocorre um evento inesperado e de grande impacto, como um Cisne Negro, há um impulso natural de entender "por que" ele aconteceu. As pessoas buscam razões, mesmo que anteriormente não tenham visto nenhuma indicação do evento.
  • Viés retrospectivo: É a tendência de acreditar, depois que um evento ocorreu, que se teria previsto ou esperado tal resultado. Em outras palavras, é a mentalidade de "eu sabia que isso ia acontecer". Isso pode levar as pessoas a superestimar sua capacidade de prever eventos ou a desconsiderar a verdadeira aleatoriedade e imprevisibilidade do mundo.
  • Reescrevendo a história: Em resposta a um Cisne Negro, pode haver uma tentativa coletiva de reescrever a história para torná-la mais compreensível. Isto é, eventos anteriores são destacados como "sinais" claros do que estava por vir, mesmo que, na realidade, esses eventos pudessem ter levado a múltiplos resultados possíveis.
  • Falsas narrativas: A explicabilidade retrospectiva pode levar à criação de narrativas simplificadas que não refletem a complexidade real dos eventos. Por exemplo, após um colapso econômico, pode ser fácil culpar um ou dois fatores dominantes, enquanto na realidade, uma miríade de fatores interconectados pode ter desempenhado um papel.
  • Implicações na gestão de riscos: A crença de que os Cisnes Negros eram previsíveis (dada a explicabilidade retrospectiva) pode ter consequências perigosas na gestão de riscos. Pode levar as organizações a se preparar para o último Cisne Negro que ocorreu, em vez de construir sistemas mais robustos ou antifrágeis que possam se adaptar a uma gama mais ampla de incertezas.
  • Consequências psicológicas: Do ponto de vista individual, o viés retrospectivo pode levar a sentimentos de arrependimento ou autocensura, especialmente se alguém acredita que "deveria ter visto" o evento imprevisível vindo. Em um nível coletivo, pode levar a sociedades e instituições buscando culpar indivíduos ou grupos por não preverem o imprevisível.
  •  

    A explicabilidade retrospectiva, combinada com o viés retrospectivo, revela muito sobre a psicologia humana e a maneira como lidamos com surpresas e incertezas. Em vez de aceitar a verdadeira natureza imprevisível de certos eventos, há um impulso de criar uma história ordenada e compreensível, muitas vezes à custa da verdadeira compreensão.

     

    The Black Swan

     

    Antifragilidade

     

    Antifrágil: Coisas que se Beneficiam com o Caos é um dos livros mais influentes de Nassim Nicholas Taleb e introduz o conceito de antifragilidade, um termo que ele cunhou para descrever sistemas que melhoram com choques, volatilidade e incerteza, ao contrário de simplesmente resistir a eles. Vamos examinar este conceito mais de perto:

  • Definição de antifragilidade: Antifragilidade vai além da robustez ou resiliência. Enquanto algo robusto pode resistir ao estresse e permanecer o mesmo, algo antifrágil melhora e se fortalece com o estresse. Em outras palavras, sistemas antifrágeis se beneficiam da desordem.
  • Contraste com fragilidade: Taleb descreve fragilidade como algo que é vulnerável a choques e incertezas. Se algo é frágil, é provável que quebre ou se degrade sob estresse. A antifragilidade é o oposto: ela prospera em ambientes voláteis.
  • Exemplos de antifragilidade: Um exemplo clássico é o corpo humano. Quando você faz exercícios, está, de fato, causando pequenos danos aos seus músculos. Mas, em resposta, seu corpo não apenas repara esses músculos, mas também os torna mais fortes. A economia é outro exemplo: setores ou empresas que não são eficientes ou adaptáveis podem falhar durante tempos econômicos difíceis, mas isso pode abrir espaço para inovação e emergência de negócios mais adaptáveis e eficientes.
  • Implicações para a gestão de riscos: A ideia de antifragilidade sugere que, em vez de tentar eliminar todos os riscos, as organizações deveriam buscar formas de se beneficiar de certas incertezas e volatilidades. Isto é radicalmente diferente da abordagem tradicional de gerenciamento de riscos, que frequentemente busca minimizar a volatilidade.
  • Construção de sistemas antifrágeis: Taleb argumenta que devemos construir instituições e sistemas que sejam antifrágeis. Isso pode significar, por exemplo, evitar a concentração excessiva de poder ou recursos, incentivando a diversificação, promovendo redundância em certas áreas, e aceitando a ideia de que pequenas falhas ou quebras podem ser benéficas a longo prazo, pois evitam falhas catastróficas maiores.
  • Aceitação do caos: Parte da filosofia da antifragilidade é aceitar e até abraçar o caos e a incerteza como partes inevitáveis e até benéficas da existência. Em vez de temer o desconhecido, a antifragilidade busca maneiras de se beneficiar dele.
  • Em suma, a antifragilidade de Taleb desafia muitos paradigmas convencionais em finanças, economia, gestão de riscos e outras áreas. Ele defende uma mudança na maneira como percebemos e nos engajamos com o mundo incerto e imprevisível ao nosso redor, argumentando que podemos não apenas sobreviver, mas prosperar no caos.

     

    Problemas com a predição

     

    Nassim Nicholas Taleb tem sido uma voz crítica contundente sobre como a sociedade, especialmente o setor financeiro, confia excessivamente em modelos de previsão. Ele acredita que muitos dos modelos usados para prever eventos futuros são inerentemente falhos e podem levar a grandes erros de julgamento. Aqui está uma análise mais profunda desta perspectiva:

  • Confiança excessiva em modelos matemáticos: Taleb argumenta que muitos profissionais, especialmente em campos como finanças e economia, tornaram-se excessivamente dependentes de modelos matemáticos sofisticados para prever eventos futuros. Estes modelos, por mais avançados que sejam, têm limitações inerentes e podem não capturar adequadamente a complexidade e a incerteza do mundo real.
  • Subestimação de eventos raros: A maioria dos modelos de previsão assume que eventos futuros seguirão uma distribuição normal (ou gaussiana). No entanto, Taleb acredita que isso leva à subestimação da probabilidade de eventos raros (ou Cisnes Negros). Em outras palavras, esses modelos não são bem equipados para lidar com as "caudas gordas" da distribuição, onde eventos extremos residem.
  • Viés de confirmação: Há uma tendência natural entre os humanos de buscar informações que confirmem suas crenças existentes e ignorar aquelas que as desafiam. Isso pode levar a uma confiança excessiva em modelos e previsões que se alinham com as visões previamente detidas, mesmo que esses modelos estejam fundamentalmente errados.
  • Falácia do planejamento: Muitas vezes, as pessoas subestimam os custos, prazos e riscos de futuros projetos ou decisões, enquanto superestimam os benefícios. Taleb argumenta que essa falácia é exacerbada pela dependência excessiva de previsões que não levam em consideração a possibilidade de eventos imprevisíveis.
  • Overfitting e data mining: No mundo da análise de dados, overfitting ocorre quando um modelo é excessivamente complexo e começa a "capturar" o ruído em vez do sinal. Taleb adverte contra a prática de data mining, onde os analistas procuram padrões nos dados que podem não ter significado real, levando a conclusões errôneas.
  • Falácia do historiador: Semelhante ao conceito de explicabilidade retrospectiva que discutimos anteriormente, a falácia do historiador envolve criar uma narrativa após um evento ter ocorrido, tornando-o parecer mais previsível do que realmente era. Isso pode criar uma falsa sensação de compreensão e previsibilidade.
  • Taleb enfatiza a necessidade de humildade epistêmica - reconhecendo os limites do nosso conhecimento e a incerteza inerente ao mundo. Ele sugere que, em vez de confiar cegamente em modelos e previsões, as organizações e indivíduos devem se preparar para o imprevisível e aceitar que não podemos prever tudo.

     

    Ética e Risco

     

    O conceito de "pele no jogo", popularizado por Nassim Nicholas Taleb, destaca a importância da responsabilidade e da ética nas decisões, especialmente aquelas que envolvem riscos. A ideia é que quando os tomadores de decisão têm uma participação pessoal nos resultados de suas ações, eles são mais propensos a tomar decisões éticas e bem-informadas. Vamos explorar mais profundamente esta perspectiva:

  • Pele no jogo: A expressão "pele no jogo" sugere que alguém tem algo a perder em uma situação e, portanto, tem um incentivo pessoal para tomar boas decisões. Taleb argumenta que isso cria um mecanismo de feedback natural que recompensa boas decisões e pune más decisões. Em muitos sistemas modernos, especialmente no setor financeiro, os tomadores de decisão podem colher os benefícios de decisões arriscadas sem sofrer as consequências negativas, levando a comportamentos imprudentes ou antiéticos.
  • Simetria na tomada de decisão: Taleb defende uma maior simetria nas recompensas e punições. Se alguém se beneficia das recompensas de uma decisão bem-sucedida, essa pessoa também deve ser responsável pelas perdas de uma decisão malsucedida.
  • Evitando conflitos de interesse: Quando os tomadores de decisão têm "pele no jogo", reduz-se a chance de conflitos de interesse, onde eles podem tomar decisões que os beneficiem pessoalmente, mas prejudiquem outras partes interessadas.
  • Responsabilidade e transparência: Ter "pele no jogo" também enfatiza a importância da responsabilidade e da transparência. Se os tomadores de decisão sabem que serão pessoalmente afetados pelas consequências de suas ações, eles têm um incentivo maior para serem transparentes sobre seus processos de tomada de decisão e para assumirem a responsabilidade por seus erros.
  • Implicações sociais: A ideia de "pele no jogo" tem implicações mais amplas para a sociedade como um todo. Pode ser aplicada a políticos (que tomam decisões que afetam seus eleitores), a executivos de empresas (que tomam decisões que afetam seus empregados, acionistas e clientes) e a muitos outros campos. O conceito sugere que a sociedade funcionaria melhor se as pessoas que tomam decisões importantes tivessem interesses alinhados com aqueles que são afetados por essas decisões.
  • Em conclusão, a visão de Taleb sobre ética e risco destaca a necessidade de alinhar incentivos e responsabilidades para garantir que os riscos sejam tomados de maneira responsável e ética. Ele sugere que isso pode ser alcançado garantindo que os tomadores de decisão tenham uma participação pessoal nos resultados de suas ações.

    Em nossa jornada de estudo sobre gestão de riscos e as valiosas contribuições de Nassim Nicholas Taleb, é essencial fazer uma pausa para refletir sobre alguns de seus outros trabalhos que não foram abordados em profundidade, mas que são igualmente importantes. Cada livro de Taleb traz uma perspectiva única e lições cruciais que enriquecem nossa compreensão sobre incerteza, probabilidade e a natureza imprevisível do mundo. A seguir, faremos uma breve reflexão sobre alguns desses livros que consideramos indispensáveis para uma visão holística de seu pensamento e como ele pode ser aplicado à gestão de riscos.

  • Em "Iludido Pelo Acaso", Nassim Nicholas Taleb explora a natureza enganosa da sorte e como ela influencia nossa percepção de sucesso e fracasso, especialmente nos mercados financeiros. O livro alerta sobre o perigo de atribuir habilidade a resultados que são meramente frutos do acaso. Taleb introduz a ideia de que muitos profissionais bem-sucedidos, especialmente traders, podem dever seu sucesso à sorte, e não a uma habilidade intrínseca. Ele enfatiza a importância de se proteger contra eventos negativos inesperados e argumenta que nossa incapacidade de reconhecer o papel do acaso em nossas vidas pode levar a decisões mal-informadas e a uma falsa sensação de segurança. Para os gestores de risco, a principal lição é a necessidade de uma profunda humildade diante da complexidade e incerteza do mundo, reconhecendo a influência oculta da sorte nos eventos.
  • O livro "A Cama de Procusto: Aforismos Filosóficos e Práticos" (2010), de Nassim Nicholas Taleb, é uma compilação de aforismos que destilam sabedoria sobre uma variedade de tópicos, incluindo risco, incerteza e a natureza humana. A analogia da cama de Procusto, oriunda da mitologia grega, refere-se à tendência das pessoas de forçar realidades complexas a se adequarem a modelos simplistas, muitas vezes levando a erros graves. Para os profissionais de gestão de riscos, as lições mais relevantes são: a cautela contra a superconfiança nos modelos estatísticos, a compreensão de que a simplificação excessiva pode ser perigosa e a valorização da experiência prática e sabedoria ancestral em contraste com teorias puramente acadêmicas. Taleb nos ensina a ser humildes diante da complexidade do mundo e a sempre questionar as suposições subjacentes aos nossos sistemas e modelos.
  • O livro "Arriscando a própria pele: Assimetrias ocultas no cotidiano" (2018) de Nassim Nicholas Taleb, mergulha profundamente na ideia de que as decisões e ações têm maior valor moral e prático quando os decisores têm "pele no jogo". Para os gestores de risco, a obra destaca a importância de estar exposto às consequências de suas próprias decisões. Taleb argumenta que os sistemas se tornam mais robustos e éticos quando as pessoas são responsáveis pelas consequências de suas ações. Essa abordagem contrasta com estruturas em que os tomadores de decisão são isolados dos efeitos de suas escolhas, muitas vezes levando a negligências e falhas. A lição central é que a verdadeira compreensão e a gestão ética dos riscos vêm de estar diretamente envolvido e potencialmente vulnerável às repercussões desses riscos.
  •  

    Mapa genealógico dos temas tratados por Nassim Taleb.

     

    O vasto conjunto de trabalhos de Nassim Nicholas Taleb fornece uma perspectiva distinta e muitas vezes contraintuitiva sobre o entendimento e a gestão de riscos. Sua caracterização de "cisnes negros" e o conceito de "antifragilidade" são contribuições paradigmáticas que desafiam noções tradicionais de previsibilidade e robustez. Seus argumentos são ancorados em uma profunda crítica às abordagens platônicas da realidade, especialmente aquelas que tendem a simplificar e categorizar o mundo de maneira ordenada e previsível.

    Para Taleb, a realidade é inerentemente incerta e, por isso, sistemas, sejam eles biológicos, econômicos ou outros, devem ser projetados para se beneficiar da volatilidade, em vez de meramente resistir a ela. Ele argumenta fervorosamente contra os modelos de previsão simplistas que muitas vezes são adotados na gestão de riscos e nas finanças, pois eles não apenas falham em considerar eventos raros e impactantes, mas também podem conduzir a decisões desastrosas.

    A "estratégia barbell" proposta por Taleb encapsula sua abordagem à gestão de riscos: ser simultaneamente hiperconservador e hiperagressivo, reconhecendo a impossibilidade de verdadeiramente computar riscos com precisão. Seu desafio contínuo à academia e às teorias econômicas dominantes destaca a necessidade de um pensamento mais adaptável e resiliente na gestão de riscos.

    A crítica de Taleb à simplificação excessiva, ao Platonismo na ciência e sua ênfase na "tinkering" (manipulação experimental) ressaltam a importância da prática e da experiência direta, em vez de confiar cegamente em teorias e modelos.

    Em essência, Taleb exige um reconhecimento profundo da complexidade, imprevisibilidade e incerteza inerentes ao mundo. Para aqueles envolvidos na gestão de riscos, seu trabalho é um lembrete contínuo de que a verdadeira robustez não vem de evitar o risco, mas de entender, abraçar e, quando possível, se beneficiar dele.

    Caso exemplo 18: Gestão de desastres naturais e a influência do pensamento de Taleb

    Contexto: O planejamento urbano de uma grande cidade costeira no século 21, exposta não apenas às ameaças típicas do desenvolvimento urbano, mas também a desastres naturais como furacões, enchentes e terremotos. Nos anos anteriores, as estratégias adotadas se concentravam principalmente em tentar prever e evitar esses desastres, baseando-se em dados históricos.

    Problema: A cidade foi atingida por um furacão de magnitude nunca antes registrada, causando danos devastadores à infraestrutura e à economia. Os modelos anteriores não previram essa ocorrência, classificando-a como um "Cisne Negro", um evento altamente improvável e imprevisível com consequências massivas. Os líderes da cidade perceberam que, mesmo com toda a tecnologia e análise de dados, havia limitações claras na previsão e prevenção de desastres de tal magnitude.

    Solução: Inspirado pelo trabalho de Taleb, o governo da cidade decidiu adotar uma abordagem de "antifragilidade". Em vez de tentar prever todos os possíveis cenários de desastre, o foco mudou para construir uma cidade que não apenas resistisse, mas também se beneficiasse de choques e estresses.

    1. Diversificação de Recursos: Semelhante à estratégia barbell, a cidade investiu em infraestrutura básica robusta, enquanto simultaneamente alocou recursos para inovações e experimentações de alto risco que poderiam trazer soluções revolucionárias.

    2. Sistemas Modulares: A cidade começou a projetar seus sistemas de transporte, comunicação e distribuição de energia de maneira modular, para que o colapso de um segmento não levasse à falha de todo o sistema.

    3. Engajamento Comunitário: Foram realizados oficinas e treinamentos para preparar a comunidade para desastres, ensinando habilidades básicas de sobrevivência, primeiros socorros e comunicação de emergência.

    4. Feedback Constante: A cidade implantou sensores e sistemas de feedback para monitorar constantemente as condições e receber feedback em tempo real durante eventos estressantes, permitindo ajustes rápidos.

     

    Resultado: Quando outro evento adverso ocorreu – uma combinação de terremoto seguido de tsunami – a cidade estava mais bem preparada. Embora houvesse danos, a recuperação foi notavelmente mais rápida. Os sistemas modulares isolaram o impacto, a comunidade estava mais bem preparada para responder e ajudar, e a infraestrutura robusta e diversificada garantiu que serviços essenciais fossem mantidos. Além disso, a cidade conseguiu inovar em várias áreas devido às experimentações de alto risco que tinham sido financiadas anteriormente, incluindo sistemas de alerta precoce e edifícios "flutuantes" que eram resilientes a inundações. A abordagem de antifragilidade permitiu que a cidade não apenas sobrevivesse ao evento, mas também aprendesse e crescesse a partir dele.

     

    3. O futuro da gestão de riscos: Inteligência artificial, computação quântica e a convergência de conhecimentos

     

    Em um mundo em constante evolução, a gestão de riscos enfrenta a necessidade imperativa de se adaptar e evoluir. A combinação da inteligência artificial (IA), da computação quântica e da sabedoria acumulada dos pensadores passados e presentes pode resultar em um cenário de gestão de riscos sem precedentes, cujo potencial é vasto e fascinante.

  • Inteligência artificial: A IA pode desempenhar um papel fundamental na análise e previsão de riscos. Sistemas de IA podem processar enormes volumes de dados em uma velocidade que os seres humanos simplesmente não conseguem. Isso significa que, ao analisar tendências passadas e atuais, a IA pode identificar padrões e correlações que não são imediatamente óbvias para os analistas humanos. Por exemplo, ao analisar dados financeiros, um algoritmo de IA pode detectar uma combinação específica de indicadores que sinalizam uma crise econômica iminente.
  • Computação quântica: Enquanto os computadores clássicos usam bits para processar informações, os computadores quânticos usam qubits, que podem representar mais informações simultaneamente. Isso os torna excepcionalmente poderosos para a solução de problemas complexos, como os encontrados na gestão de riscos. Imagine analisar instantaneamente todos os possíveis desdobramentos de uma decisão estratégica.
  • Convergência do conhecimento: À medida que combinamos a sabedoria dos grandes pensadores do passado com insights da era contemporânea, surge um quadro holístico de gestão de riscos. Ao aplicar, por exemplo, o conceito de "cisnes negros" de Taleb a algoritmos de IA, podemos programar sistemas para estar alertas a outliers que poderiam, de outra forma, ser negligenciados. Ou usando o princípio da "linha d'água" de Gore, podemos criar sistemas de IA que empoderam as decisões individuais, mas também alertam para riscos potenciais à integridade da organização.
  •  

    No futuro da proteção patrimonial, a integração de IA, computação quântica e filosofias de gestão de riscos poderá transformar a segurança de propriedades. Câmeras equipadas com IA detectarão atividades suspeitas em tempo real, enquanto a computação quântica simulará cenários de risco para orientar a resposta das equipes de segurança. Além disso, através de uma abordagem de gestão de risco por empoderamento, residentes e funcionários tornar-se-ão participantes ativos na segurança, utilizando plataformas que os alertam sobre riscos em tempo real, criando um ambiente proativo e adaptável de proteção.

    Em suma, à medida que nos movemos para um futuro em que a tecnologia e o pensamento humano se convergem, a gestão de riscos será mais proativa, abrangente e adaptável do que nunca. A combinação dessas ferramentas e conhecimentos poderá garantir que as organizações não apenas enfrentem os riscos, mas os antecipem e os utilizem como oportunidades para inovação e crescimento.

     

    4. Conclusão

     

    Ao chegarmos ao fim da segunda parte deste estudo, é inegável o legado profundo dos visionários da era contemporânea na gestão de riscos. Clique aqui para acessar a primeira parte de nosso estudo, onde mergulhamos nas contribuições dos primeiros pensadores sobre este tema.

    Bill Gore, muito mais do que um pioneiro em gestão empresarial, introduziu conceitos revolucionários como o "Princípio da Linha d'Água", enfatizando a importância de uma gestão de riscos por empoderamento. Andrey Kolmogorov solidificou a teoria da probabilidade, enquanto Daniel Kahneman e Amos Tversky iluminaram os vieses cognitivos que podem afetar nossa avaliação de riscos. Ulrich Beck identificou os desafios de nossa era como pertencentes a uma "sociedade de risco". John Allen Paulos, com uma visão incisiva, destacou a grande importância da alfabetização numérica no mundo moderno – uma necessidade que só se intensificará no futuro. Nassim Nicholas Taleb, por sua vez, nos fez refletir sobre os "cisnes negros", os riscos imprevisíveis que podem redefinir o curso de nossa história e a necessidade da antifragilidade.

    Os esforços em criar dezenas de exemplos ao longo deste estudo têm como objetivo materializar a teoria desses visionários na prática, tornando os conceitos mais acessíveis e tangíveis para os leitores.

    Diante do constante avanço tecnológico e das mudanças em nosso mundo, a gestão de riscos continuará sendo um pilar para tomadas de decisão informadas. A relação inerente entre probabilidade e gestão de riscos é um guia para nosso futuro, instigando-nos a abraçar incertezas, aprender com o passado e se adaptar com vista ao que está por vir.