Os desafios éticos dos avanços da inteligência artificial

Preocupações e temores em relação à inteligência artificial

Os avanços na área da inteligência artificial têm despertado preocupações e temores entre os cientistas e especialistas. Ambos enxergam um futuro catastrófico caso essa tecnologia não seja adequadamente controlada e regulamentada. Embora a inteligência artificial tenha o potencial de trazer benefícios significativos para a sociedade, também é possível utilizá-la de maneira maliciosa e prejudicial.

GPT-2 e GPT-3: Avanços e cautela na disponibilização

Em 2019, a , uma organização de pesquisa sem fins lucrativos, desenvolveu um software capaz de gerar textos coerentes e compreender informações de forma rudimentar. No entando, a OpenAI optou por não disponibilizar completamente essa criação ao público. O receio era que ela pudessem utilizá-la para disseminar desinformação e propaganda. O grupo considerou o programa “perigoso demais” naquela época.

Após três anos, a capacidade da inteligência artificial aumentou exponencialmente e o , uma versão aprimorada do , surgiu em novembro de 2022. A interface , derivada dessa programação, demonstrou habilidades impressionantes, como escrever artigos de notícias, postagens em redes sociais, roteiros de stand-up comedy. Até mesmo explicar conceitos complexos de física quântica utilizando a linguagem e o estilo de personalidades famosas.

Potencial criativo da IA: Geração de textos e imagens convincentes

Outros modelos de inteligência artificial, como o , são capazes de gerar imagens extremamente convincentes. Isso que gerou polêmica em relação ao uso dessas imagens em sites de arte. Em resumo, as máquinas estão demonstrando capacidade de serem criativas.

Recentemente, a OpenAI apresentou o GPT-4, a versão mais recente de seu programa, com a alegação de apresentar proteções mais sólidas contra usos abusivos. Clientes como a , o banco e o governo da Islândia já adotaram essa tecnologia.

Conferência South by Southwest 2023: Entusiasmo e preocupações dos participantes

A conferência South by Southwest destacou o potencial e o poder dos programas de inteligência artificial. Esse evento global que reúne formuladores de políticas, investidores e executivos da área de tecnologia. Na SXSW 2023, os participantes mostraram entusiasmo em relação às possibilidades oferecidas pela IA, mas também expressaram preocupações.

ressaltou que a tecnologia da inteligência artificial é extremamente poderosa. Segundo a diretora do Escritório de Política de Ciências e Tecnologia da Casa Branca, ela pode ser usada tanto para o bem quanto para o mal. Já , fundador da SeedAI, foi mais direto ao afirmar que as consequências desse avanço tecnológico em um curto período de tempo são evidentes.

https://traffic.omny.fm/d/clips/0e1991a8-411a-4169-980a-ab27014a05dc/acd287c7-f0a6-4396-b205-ab4401152d93/bd619f96-b94e-42b3-a003-afbc004feb05/audio.mp3

tentou prever as possíveis direções que a inteligência artificial pode tomar nos próximos 10 anos. A chefe do instituto Future Today e professora de negócios da Universidade de Nova York delineou dois cenários possíveis: um otimista e outro catastrófico.

YouTube video player

Dois cenários possíveis: Otimista e catastrófico

Cenário otimista

No cenário otimista, o desenvolvimento da inteligência artificial tem foco no bem comum da sociedade. Isso prevê sistemas transparentes e a capacidade dos indivíduos de controlar quais informações pessoais incluir nos bancos de dados da IA. Nesse cenário, a tecnologia seria uma ferramenta que facilitaria a vida das pessoas. Dessa forma, estaria presente em produtos de consumo e ajudando a antecipar necessidades e realizar tarefas diversas.

Cenário catastrófico

Já no cenário catastrófico, haveria menos privacidade de dados, concentração de poder em poucas empresas. Além disso, a inteligência artificial poderia antecipar erroneamente as necessidades dos usuários, restringindo suas escolhas. Amy Webb acredita que há apenas 20% de chance de o cenário otimista se concretizar.

Responsabilidade das empresas e regulamentação governamental

Para determinar o rumo da tecnologia, Webb destaca a importância da responsabilidade das empresas que a desenvolvem. A ação rápida do governo na criação de regulamentações que orientem o desenvolvimento tecnológico e evitem seu uso indevido também é fundamental. A experiência com empresas de redes sociais serve como exemplo de como a falta de proteção e regulamentação pode resultar em problemas significativos. Além disso, o monopólio das bigtechs como , e é prova indiscutível disso.

A supervisão federal das empresas de redes sociais nos Estados Unidos se baseia na Lei de Decência nas Comunicações. Essa lei é de 1996 e protege as empresas da responsabilidade pelo conteúdo gerado pelos usuários em suas plataformas no seu Artigo 230. Essa legislação é alvo de críticas tanto de políticos de direita quanto de esquerda. A direita considera que a legislação permite a censura de opiniões conservadoras. No entanto, os políticos de esquerda acusam as empresas de não fazerem o suficiente para combater o discurso de ódio e a disseminação de informações prejudiciais.

Conexão entre regulamentação da IA e das redes sociais

A possibilidade de reformas nesse sentido é incerta já que as grandes empresas de tecnologia possuem influência política real. Por meio de seus lobistas e doações de campanha, elas são capazes de influir diretamente nas decisões políticas. A falta de uma regulamentação eficaz para as redes sociais pode representar um desafio ainda maior para lidar com as preocupações relacionadas à inteligência artificial.

As regulamentações da inteligência artificial e das redes sociais estão interligadas, pois a IA pode amplificar a desinformação e dificultar a distinção entre conteúdos gerados por seres humanos e aqueles produzidos por sistemas de IA. Mesmo que haja regulamentações para as redes sociais, se a IA gerar um fluxo massivo de conteúdo prejudicial, as medidas podem ser ineficazes.

Desafios e incertezas na construção de políticas de IA

Essas questões foram discutidas na conferência South by Southwest onde um painel sobre a construção de políticas de IA foi cancelado. Isso evidencia a falta de competência e a dificuldade em lidar com os desafios que a inteligência artificial apresenta.

Em suma, os cientistas e especialistas temem um futuro catastrófico causado pela inteligência artificial devido à falta de regulamentação e controle. Embora exista um cenário otimista em que a IA beneficie a sociedade, o cenário catastrófico parece mais provável. Isso significaria um futuro ainda mais distópico com menos privacidade e poder centralizado em poucas empresas. A responsabilidade das empresas e a ação governamental rápida são essenciais a fim de garantir o desenvolvimento seguro e ético da inteligência artificial. Por fim, A conclusão que se tira de todas essas discussões é que há necessidade de ação rápida para garantir um desenvolvimento seguro da IA.

YouTube video player

 

Curte nosso blog? Então compartilhe nas redes!
FacebookXWhatsAppTelegramLinkedInRedditTumblrMessengerThreadsPinterestEmailCopy Link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile