O caso do Nash tem bastante ironia. Um matemático puro desenvolveu uns trabalhos que despertaram um interesse tal na área de economia que lhe valeu o prémio Nobel mas no final suspeito que o maior campo de aplicação será na engenharia.
A teoria dos jogos baseia-se na pura racionalidade díficil de encontrar em economia e embora possa ser importante em termos de compreensão dos fenómenos dificilmente será uma ferramenta de uso directo generalizado. Já no campo da engenharia envolvendo coexistência de sistemas autónomos ou semi-autónomos ou sistemas distribuídos, em que os algoritmos usados seguem leis da matemática e lógica, os principios e resultados de teoria dos jogos parecem ter um campo de aplicação perfeito.
A meu ver a engenharia de software mais complexa está a fugir deste tipo de regras e teorias. Converge para a big data mas de uma forma curiosa. Um exemplo é o reconhecimento de voz, outro as traduções automáticas, ainda outro a forma de programar computadores para jogarem jogos.
O interessante nesses casos é que o machine learning não se está a apoiar sobre regras como a gramática, ou teorias sobre como melhor jogar. Em vez disso, baseia-se simplesmente em padrões descobertos através da análise estatística de uma montanha de dados (por exemplo no caso das traduções, em padrões estabelecidos entre documentos que se sabe existirem traduzidos para várias línguas).
As máquinas estão basicamente a aprender por observação e trial & error. Um bocado como os humanos, que aprendem a língua da mesma forma. Um problema do tipo do resolvido por uma teoria de jogos aqui será resolvido por observação de milhões de jogos similares e respectivos resultados, e não por uma teoria que indica o melhor caminho "à priori". Já é assim que funciona para a resolução de muitos jogos de forma computacional, incluindo o poker. Inclusive uma forma engraçada para ensinar o computador nesse jogo é particularmente interessante: colocaram o computador a jogar contra si próprio, partindo de um estado "burro"!