Search
sábado 23 novembro 2024
  • :
  • :

Stephen Hawking está certo? A Inteligência Artificial pode levar ao fim da humanidade?

O famoso físico teórico Stephen Hawking ressuscitou o debate se a nossa busca por melhorias na inteligência  artificial pode um dia nos levar a criar máquinas pensantes que irão nos substituir.

O cientista britânico fez a afirmação em uma entrevista com a BBC. Hawking possui uma doença do neurônio motor, a esclerose amiotrófica lateral, e em sua entrevista falou sobre uma nova tecnologia que ele está usando para se comunicar.

Ele funciona modelando sua palavra anterior para predizer o que ele falará em seguida, semelhantemente ao sistema usando em smartphones.

Mas o Professor Hawking também mencionou sua preocupação em relação ao desenvolvimento de máquinas que possam nos ultrapassar.

“Assim que os humanos desenvolverem inteligência artificial, isso começaria a se re-desenvolver por conta própria a uma taxa cada vez mais alta,” ele contou à BBC. “O desenvolvimento de uma inteligência artificial completa poderia trazer o fim à raça humana.”

Podem as máquinas assumirem o controle?

Eu aprecio a questão dos computadores tomando o controle (e um dia acabando com a humanidade) sendo levantada por alguém com um perfil tão elevado, capaz e credível como Prof. Hawking – e merece uma resposta breve.

A questão sobre inteligência em máquinas remonta até o pai da computação, Alan Turing, em 1950, quando ele considerou a questão: “As máquinas podem pensar?”

A questão sobre as máquinas inteligentes tomando o poder tem sido discutida de uma forma ou de outra em uma variedade de mídias e culturas. Pense nos filmes Colossus 1980 (1970) e Westworld (1973), e – mais recentemente – Skynet no Exterminador de 1984 e suas sequências.

Comum a todos eles é a questão de delegar responsabilidade às máquinas. A noção da singularidade tecnológica é algo vem desde o pioneiro da inteligência artificial, Ray Solomonoff – que em 1967, avisou:

“Mesmo não havendo perspectiva de máquinas muito inteligentes no futuro próximo, os perigos apresentados são seríssimos e os problemas muito complicados. Seria bom se um grande número de humanos inteligentes dedicassem algum pensamento à esses problemas antes que aparecessem. É a minha impressão de que a realização de inteligência artificial será uma ocorrência súbita. Em um certo ponto do desenvolvimento da pesquisa não teremos qualquer experiência prática com inteligência na máquina em qualquer nível: um mês depois, teremos máquinas muito inteligentes e todos os problemas e perigos ligados a nossa inexperiência.”

Eu compartilho as preocupações de Solomonoff, Hawking e outros em relação às consequências de máquinas mais rápidas e inteligentes – mas o autor americano, cientista da computação e inventor, Ray Kurzweil, é um dos que veem os benefícios.

Quem quer que esteja certo (contando que nosso planeta não seja destruído), eu creio que Solomonoff foi presciente em 1967 ao advogar que coloquemos bastante pensamento em cima disso.

Máquinas já estão tomando conta


No meio tempo, nós vemos quantidades crescentes de responsabilidade sendo dadas às máquinas. Por um lado, são calculadoras portáteis, ou GPSs.

Por outro lado, podem ser sistemas de controle aéreo, mísseis guiados, caminhões sem motorista ou os recentes carros sem motorista.

É discutido que computadores podem tomar o controle quando sua inteligência ultrapassar a nossa. Mas também existem outros riscos ligados à responsabilidade que damos às máquinas.

Erros nas máquinas

Alguns disseram que o crash da bolsa de valores de 1987 aconteceu devido à negociação computadorizada.

Também houveram falhas na rede de energia devido à erros de computador. E, em menor nível, o corretor ortográfico intrusivo algumas vezes ‘corrige’ o que eu escrevi para algo potencialmente ofensivo. Erro de computador?

Glitches de hardware ou software podem ser difíceis de detectarem e ainda causam estragos em sistemas de grande escala – mesmo sem hackers com intenção maldosa, e provavelmente ainda mais com eles. Então, quanto realmente podemos confiar nas máquinas com grande responsabilidade para fazerem melhores trabalhos que nós?

Mesmo sem computadores conscientemente tomando o controle, eu vejo caminhos onde sistemas computadorizados podem sair de controle. Esses sistemas podem ser tão rápidos com componentes tão pequenos que pode ser difícil remediar e ainda mais difícil desligá-los.

Parcialmente no espírito do artigo de Solomonoff em 1967, eu gostaria de ver roteiristas e pesquisadores de inteligência artificial colaborando para prever tais cenários – e estimulando a discussão pública.

Como apenas um cenário possível, talvez fala seja má convertida ao texto, piorada em uma má tradução automática, levando a uma súbita corrupção de instruções dadas às máquinas, levando à qualquer outro problema.

Outro problema relacionado talvez venha de estatísticas mais rápidas e máquinas que aprendam através de dados sobre a mente humana. (E como alguns possam adicionar, somos nós que definimos tudo que é bom, moral e correto?)

Como Solomonoff disse em 1967, nós precisamos dessa discussão pública – e, dadas as aposta, eu acho que precisamos dela logo.

Fonte




error: Content is protected !!