Nintendo e filosofia: Mega Man e os limites da racionalidade técnica

A série Mega Man levanta questões filosóficas sobre a definição de racionalidade e os riscos do avanço da tecnologia.


O escritor Isaac Asimov (1920 - 1992) elaborou, no livro “Eu, robô”, as três leis da robótica, que podem ser formuladas da seguinte maneira: 1) um robô não pode ferir um humano ou permitir que um humano sofra algum mal; 2) os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei; e 3) um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. Asimov tinha um propósito óbvio com essas normas: garantir a convivência entre humanos e máquinas. Apesar de inseridas em um contexto ficcional, as leis da robótica (criadas em 1950) se tornaram regra para os estudos de inteligência artificial. Isso não impediu, contudo, que o imaginário popular se voltasse para o rompimento desses princípios, e desde então surgiram diversos produtos, em mídias distintas, explorando a possibilidade de um embate entre androides e seus criadores. Mega Man, criação da Capcom, lançada para o NES em 1987, se encontra exatamente nesse contexto.

Os limites da razão

Em Mega Man acompanhamos os desdobramentos do conflito entre dois cientistas geniais, Dr. Albert Wily e Dr. Thomas Light. Inicialmente os dois teriam desenvolvido juntos os Robot Masters, uma série de robôs inteligentes que teriam como função contribuir para o bem da humanidade. Contudo, Dr. Wily se apossou da criação e tentou usá-los em um plano de dominação mundial. É aí que Mega Man, até então um androide assistente, é modificado por Dr. Light para impedir os planos de Wily.

A história, apresentada dessa maneira, mostra um tipo de estrutura maniqueísta bem conhecida, estabelecendo a polaridade simplória entre o bem e o mal. No entanto, como quase tudo mais na vida, a divisão entre certo e errado não é tão simples assim, e Mega Man nos oferece a possibilidade de refletir sobre o sentido último do desenvolvimento da ciência e da racionalidade.
Dr. Wily e Dr. Light, respectivamente.


A partir da obra do filósofo francês René Descartes (1596 - 1650) a definição de humano se encontra, quase que exclusivamente, atrelada à capacidade de pensar. É esse justamente o sentido do cogito cartesiano (“Penso, logo existo”). Descartes, que procurava uma verdade inabalável para rebater o ceticismo, encontrou no cogito o ponto que separa a humanidade de todos os outros seres. Ainda que nossos sentidos nos enganem, ainda que estivéssemos em um sonho ou em uma simulação como a Matrix, ainda que nada fosse real e pudéssemos duvidar de tudo que nos cerca, ainda assim teríamos uma certeza: nós existimos, pelo simples fato de que podemos pensar e duvidar do que somos e percebemos.

Essa seria, portanto, a diferença entre humanos e máquinas. Um robô, ainda que possa ter uma programação avançada e a capacidade de realizar tarefas que não conseguimos executar, não é capaz de pensar sobre si mesmo, e nem pode colocar em dúvida sua existência. Bem, pelo menos não até agora.

A humanidade das máquinas

O filósofo estadunidense Hilary Putnam (1926 - 2016) elaborou um experimento mental que ficou conhecido como “cérebro numa cuba”. De acordo com esse experimento hipotético, deveríamos imaginar que não possuímos mais uma existência física, um corpo, mas ainda assim continuamos existindo. Isso seria possível porque nosso cérebro estaria mantido em uma cuba, sendo alimentado por um supercomputador que tinha a função de nos lançar em uma realidade simulada. A questão central do experimento é que, ainda que pareça improvável, se existisse uma tecnologia para isso e alguém fosse mantido vivo assim, seria impossível descobrir a verdade. Como Putnam escreveu, o computador pode até mesmo apresentar esse texto que você está lendo agora como uma pista do que realmente está ocorrendo, e mesmo assim você continuaria apenas em dúvida.

Considerando a fragilidade da nossa concepção de existência e o fato de que realmente podemos estar vivendo em uma simulação, o que faz de nós, humanos, realmente superiores às máquinas? Recentemente, a série de televisão Westworld (HBO, 2016) explorou esse mesmo aspecto da questão, mostrando como o limiar entre as pessoas e os androides pode ser difícil de distinguir.



Mega Man, da mesma forma, se insere em um contexto distópico que é, ao mesmo tempo, nebuloso e esperançoso para a humanidade. O lado terrível está no fato de que a ficção apresentada nos games aponta para um mundo em que as leis da robótica não são suficientes para garantir a segurança humana. Contudo, nem tudo parece perdido. Principalmente porque vemos durante os jogos que os robôs podem expressar sentimentos e se afeiçoar às pessoas, algo menos nefasto do que poderia ser. Afinal, pelo menos as máquinas conseguem desenvolver empatia, mostrando que esse não é um sentimento exclusivamente humano. Diante de todas as questões levantadas pelos jogos, talvez a principal aqui seja a seguinte: em relação à nossa capacidade de pensar e sentir, somos realmente tão diferentes do que um robô azul poderia ser?

Pesquisador nas áreas de estética e cibercultura com Mestrado em Cultura e Sociedade (UFMA) e Doutorado em Comunicação (UnB). Além de escrever sobre jogos, produz o Podcast Ficções e tem um blog sobre literatura, filosofia e cotidiano.
Este texto não representa a opinião do Nintendo Blast. Somos uma comunidade de gamers aberta às visões e experiências de cada autor. Escrevemos sob a licença Creative Commons BY-SA 3.0 - você pode usar e compartilhar este conteúdo desde que credite o autor e veículo original.


Disqus
Facebook
Google