Inteligência artificial: entenda por que cientistas estão preocupados com avanço rápido da tecnologia

Carta assinada por Elon Musk e intelectuais do mundo inteiro defende que a inteligência artificial está sendo desenvolvida numa corrida tecnológica que nem seus próprios criadores são mais capazes de controlar.

MEIO 1 ABAIXO WEBTV

Centenas de pessoas ligadas à área de tecnologia assinaram, esta semana, uma carta em que pedem uma pausa de seis meses no desenvolvimento da inteligência artificial. O Jornal Nacional ouviu especialistas que explicaram os motivos do documento.

ASSISTA AO VÍDEO

A carta diz que estamos em um ponto que pode significar uma mudança profunda na história do planeta. Defende que a inteligência artificial está sendo desenvolvida dentro de empresas, em caixas pretas, numa corrida tecnológica que nem seus próprios criadores são mais capazes de controlar.

Um dos autores da carta, o professor Max Tegmark, físico do Massachusetts Institute of Technology (MIT), falou ao Jornal Nacional. Ele trabalha há décadas com pesquisa de inteligência artificial e explica que o objetivo sempre foi construir algo mais inteligente que humanos e os cientistas pensavam que isso ainda ia demorar.

Só que, nos últimos meses, o crescimento foi tão rápido, que deixou os próprios pesquisadores assustados. E, por isso, resolveram publicar o pedido: que se congele todo o desenvolvimento dessa tecnologia por seis meses.

Assinaram cientistas do mundo todo, incluindo o popular pensador israelense Yuval Harari. Além de chefões de empresas que desenvolvem inteligência artificial como Elon Musk e Steve Wozniak, co-fundador da Apple.

Essa versão do robô está disponível apenas para assinantes e se desenvolveu muito desde o lançamento da primeira versão em novembro do ano passado. Você pergunta o que quiser para ele e, para responder, ele se alimenta de textos que estão publicados na internet. Já se dá melhor em testes do que a maioria dos humanos e parece mesmo que você está falando com uma pessoa. Como, por exemplo, quando perguntam quais são os riscos que o robô mesmo impõe à sociedade.

Primeiro ele lista coisas como desinformação e preconceito. A equipe do Jornal Nacional pediu para explicar o que pode ser ainda pior no futuro. Ele menciona que os governos podem usar a inteligência artificial para vigilância e controle; que o robô pode operar armas de guerra automatizadas; promover ataques cibernéticos; que pode se tornar mais inteligente que humanos; se tornar impossível de controlar; e tomar grande parte dos nossos empregos.

O próprio dono da Open AI, empresa que desenvolveu o Chat GPT, se disse assustado com a tecnologia que desenvolveu.

O professor Max diz que não estamos prontos para nos tornarmos obsoletos, que isso poderia causar caos social. Mas a maior crítica à carta é realmente essa: que ela está projetando o futuro e não olhando o presente.

Ela foi publicada por um instituto que promove uma espécie de religião secular chamada longotermismo, que defende, entre outras coisas, que indivíduos devem acumular grandes fortunas para resolver problemas do futuro.

Os críticos dizem que a inteligência artificial já tem impacto diário nas nossas vidas e que mecanismos de regulação têm que ser criados para isso.

O professor Luis Lamb, da Universidade Federal do Rio Grande do Sul, que estuda no MIT, tem outra preocupação:

“Se nós pararmos o desenvolvimento dessas pesquisas nos Estados Unidos, não significa que outros países concorrentes vão parar. Não há garantia nenhuma de que outros países, outros lugares pararão o desenvolvimento dessa tecnologia, e vão deixar de usar essa tecnologia mesmo que ela apresente algum risco”, alerta.

O que o professor Max defende é que controlemos agora as máquinas para trabalharem para gente. Por exemplo, encontrar curas para doenças que pensávamos incuráveis, mas que, talvez, simplesmente não estejam ao alcance da nossa inteligência.

O que diz a carta assinada por Musk e milhares contra experimentos de Inteligência Artificial?

Aceleração no avanço de sistemas de IA representa um risco potencial para a humanidade, diz carta

Foto: Montagem sobre fotos Wikimedia Commons

Recentemente, Elon Musk e um grupo de especialistas em inteligência artificial emitiram uma carta aberta pedindo uma pausa de seis meses no desenvolvimento de sistemas ainda mais avançados que o GPT-4 da OpenAI.

Segundo a carta, a aceleração no avanço de sistemas de IA representa um risco potencial para a humanidade. A ideia é que se espere pelos protocolos de segurança para que mais projetos sejam desenvolvidos, implementados e auditados por especialistas.

A preocupação dos especialistas vem logo após a Europol, Agência de Inteligência da União Europeia, alertar para o uso criminoso da inteligência artificial, em especial a aplicada aos chatbots, em áreas como golpes de phishing, desinformação e crimes cibernéticos. O governo do Reino Unido também apresentou propostas para uma estrutura regulatória “adaptável” em torno da IA.

A carta, emitida pelo Instituto Future of Life, alertou para os riscos de competitividade humana com interrupções econômicas e políticas, e convocou os desenvolvedores a trabalhar com governos e autoridades reguladoras.

A carta também detalhou riscos de competitividade humana com interrupções econômicas e políticas, destacando a necessidade de que poderosos sistemas de IA sejam desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis.

Foto: Naresh111

Apesar disso, Sam Altman, executivo-chefe da OpenAI, não assinou o documento, embora tenha tido conhecimento da carta. Altman e Musk são velhos conhecidos, já que o bilionário cofundou a OpenAI com o atual CEO, mas deixou a empresa em 2018 após conflitos de interesses.

hacker Uirá Porã, juntamente com sua equipe de inteligência artificial, composta pelo ChatGPT, iniciou uma nova coluna na Mídia NINJA, que discute as implicações políticas e sociais do avanço tecnológico. Confira tudo aqui.

Confira a versão brasileira da carta na íntegra:

Precisamos conversar sobre Inteligência Artificial, Internet e outras questões TecnoPolíticas

Caros cientistas, ativistas e governantes brasileiros,

Recentemente, uma carta aberta intitulada “Pause Giant AI Experiments” foi publicada, pedindo uma pausa no desenvolvimento de sistemas de Inteligência Artificial (IA) mais poderosos que o GPT-4 por pelo menos 6 meses.

Esta carta levanta preocupações importantes sobre os impactos potenciais da IA na sociedade, na economia e na democracia.

Convidamos a todos vocês a lerem e refletirem sobre essa carta, e a se engajarem no debate sobre o papel da IA e das tecnologias em geral no Brasil. É fundamental que, como nação, construamos uma agenda TecnoPolítica abrangente que considere não apenas a IA, mas também o impacto das tecnologias na democracia e na vida das pessoas.

As esferas governamentais têm um papel crucial a desempenhar na formulação e implementação de políticas que garantam o desenvolvimento responsável e seguro da IA e outras tecnologias emergentes. Devemos trabalhar juntos para criar um ambiente no qual a sociedade possa se beneficiar dessas inovações sem comprometer nossa segurança, privacidade e valores democráticos.

A agenda TecnoPolítica deve incluir ações como:

  • Investimento em pesquisa e desenvolvimento de IA e tecnologias emergentes com foco em segurança, ética e impactos sociais.
  • Estabelecimento de órgãos reguladores e de supervisão específicos para IA e tecnologias digitais.
  • Fomento à educação e conscientização da população sobre os desafios e oportunidades trazidos pela IA e outras tecnologias.
  • Promoção de cooperação entre setores público e privado, academia e sociedade civil para garantir uma abordagem inclusiva e democrática na definição de políticas e diretrizes para o uso de tecnologias emergentes.

Neste momento crítico, é essencial que nos unamos e enfrentemos os desafios e as oportunidades apresentados pela IA e outras tecnologias, garantindo que seu desenvolvimento seja ético, seguro e beneficie a todos.
Atenciosamente,

Carta Original, em inglês: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Parem Experimentos Gigantes de IA: Uma Carta Aberta

Solicitamos a todos os laboratórios de IA que interrompam imediatamente, por pelo menos 6 meses, o treinamento de sistemas de IA mais poderosos que o GPT-4.

Sistemas de IA com inteligência competitiva humana podem representar riscos profundos à sociedade e à humanidade, conforme mostrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA.

Conforme afirmado nos amplamente endossados Princípios de IA de Asilomar, a IA avançada poderia representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidado e recursos proporcionais. Infelizmente, esse nível de planejamento e gerenciamento não está acontecendo, mesmo que nos últimos meses os laboratórios de IA estejam envolvidos em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiável.

Sistemas contemporâneos de IA estão se tornando competitivos com humanos em tarefas gerais e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidades? Devemos automatizar todos os empregos, incluindo os gratificantes?

Devemos desenvolver mentes não humanas que eventualmente possam superar em número, superar em inteligência, tornar obsoletos e nos substituir? Devemos arriscar a perda de controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando tivermos confiança de que seus efeitos serão positivos e seus riscos serão gerenciáveis.

Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. A declaração recente da OpenAI sobre inteligência artificial geral afirma que “Em algum momento, pode ser importante obter revisão independente antes de começar a treinar sistemas futuros e para os esforços mais avançados concordarem em limitar a taxa de crescimento do poder computacional utilizado na criação de novos modelos”. Concordamos. Esse momento é agora.

Portanto, pedimos a todos os laboratórios de IA que façam uma pausa imediata de pelo menos 6 meses no treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.

Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar conjuntamente um conjunto de protocolos de segurança compartilhados para o projeto e desenvolvimento de IA avançada, que são rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que os seguem sejam seguros além de uma dúvida razoável. Isso não significa uma pausa no desenvolvimento de IA em geral, apenas um recuo da corrida perigosa para modelos imprevisíveis de caixa preta cada vez maiores, com capacidades emergentes.

A pesquisa e o desenvolvimento de IA devem ser redirecionados para tornar os sistemas poderosos e de última geração mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de políticas para acelerar dramaticamente o desenvolvimento de sistemas robustos de governança de IA.

Estes devem incluir, no mínimo: novas e capazes autoridades regulatórias dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes reservatórios de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento público robusto para pesquisas técnicas de segurança em IA; e instituições bem financiadas para lidar com as disrupções econômicas e políticas dramáticas (especialmente para a democracia) que a IA causará.

A humanidade pode desfrutar de um futuro próspero com a IA. Tendo sucesso na criação de sistemas de IA poderosos, podemos agora desfrutar de um “verão da IA” no qual colhemos os frutos, projetamos esses sistemas para o benefício claro de todos e damos à sociedade a chance de se adaptar. A sociedade já colocou em pausa outras tecnologias com efeitos potencialmente catastróficos. Podemos fazer o mesmo aqui. Vamos aproveitar um longo verão da IA, em vez de nos apressar despreparados para um outono.

Os 23 Princípios de Asilomar

Em 2017 um grande conjunto de renomados cientistas, no que diz respeito à Inteligência Artificial (IA), à Biotecnologia e às Tecnologias Nucleares, e investigadores descreveram 23 Princípios que visam assegurar que o progresso e o impacto que o desenvolvimento da IA poderá ter na nossa História seja benéfico.

The Future of Life Institute (FLI) foi criado em 2015  e sua missão é descrita como

“Catalisar e apoiar pesquisas e iniciativas para salvaguardar a vida e desenvolver visões otimistas do futuro, incluindo maneiras positivas para a humanidade seguir seu próprio caminho, considerando novas tecnologias e desafios”.

Entre seus membros contamos nomes como Stephen Hawking, Morgan Freeman, Elon Musk e Stuart J. Russell.

Esses 23 Princípios descrevem diretrizes que os pesquisadores devem respeitar para garantir o uso seguro, ético e benéfico da IA.

“A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos seguintes princípios, oferecerá oportunidades incríveis para ajudar e fortalecer as pessoas nas próximas décadas e séculos.”

As diretrizes são descritas a seguir:

Questões sobre a pesquisa

1) Objetivo da Pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não direcionada, mas inteligência benéfica.

2) Financiamento da Pesquisa: Investimentos em IA devem ser acompanhados de financiamentos em pesquisa para assegurar seu uso benéfico, incluindo pesquisas espinhosas em Ciência da Computação, Economia, Leis, Ética, e Estudos Sociais, tais como:

  • Como podemos tornar futuros sistemas com IA altamente robustos, para que eles façam o que queremos sem mal funcionamento ou serem hackeados?
  • Como podemos aumentar nossa prosperidade por meio da automação, mantendo os recursos e a finalidade das pessoas?
  • Como podemos atualizar nossos sistemas jurídicos para sermos mais justos e eficientes, para manter o ritmo da IA e para gerenciar os riscos associados à IA?
  • Com que conjunto de valores a IA deve estar alinhada, e que posicionamento legal e ético ela deve ter?

3) Link entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.

4) Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.

5) Prevenção de Corrida: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.

Éticas e Valores

6) Segurança: Os sistemas com IA devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.

7) Transparência de falha: Se um sistema com IA causar dano, deve ser possível determinar o motivo.

8) Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.

9) Responsabilidade: Designers e construtores de sistemas avançados com IA são partes interessadas nas implicações morais de seu uso, abuso e ações, com responsabilidade e oportunidade de moldar essas implicações.

10) Alinhamento de valor: Sistemas com IA altamente autônomos devem ser projetados de modo que seja assegurado que seus objetivos e comportamentos serão alinhados com os valores humanos durante toda a operação.

11) Valores Humanos: Os sistemas com IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural.

12) Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas com AI de analisar e utilizar esses dados.

13) Liberdade e Privacidade: A aplicação de IA aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.

14) Benefício compartilhado: Tecnologias com IA devem beneficiar e capacitar o maior número de pessoas possível.

15) Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.

16) Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas com IA, para realizar os objetivos escolhidos pelo homem.

17) Não-subversão: O poder conferido pelo controle de sistemas com IA altamente avançada deve respeitar e melhorar, ao invés de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade.

18) Corrida Armada com IA: Deve ser evitada uma corrida armamentista com armas autônomas letais.

Questões de Longo Prazo

19) Atenção na Capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores em futuras capacidades de IA.

20) Importância: IA avançada poderia representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e administrada com cuidado e recursos proporcionais.

21) Riscos: Os riscos colocados pelos sistemas com IA, especialmente os riscos catastróficos ou existenciais, devem estar sujeitos a esforços de planejamento e mitigação proporcionais ao impacto esperado.

22) Auto Aprimoramento Recursivo: Sistemas com IA projetados para melhorar ou autorreplicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.

23) Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos amplamente compartilhados, e para o benefício de toda a humanidade e não de um estado ou organização.

Esses Princípios foram assinados por 1273 pesquisadores das áreas de IA e Robótica e 2541 de outras áreas.

Alguns comentários e questionamentos podem ser tecidos sobre esses princípios.

Sobre o princípio número 1, o objetivo da pesquisa não deve ser criar inteligência não direcionada, mas inteligência benéfica. Primeiramente, não é definido o que é Inteligência. A partir de que momento podemos dizer que um sistema é inteligente? Um programa que simula enxames de insetos para solucionar um problema específico, pode ser chamado de inteligente? Ou somente sistemas que simulem o modo como o ser humano toma decisões será inteligente? O 10º princípio nos dá uma luz. Além disso, acredito que eles devam estar falando sobre criar IA pela IA, para testar se conseguem criar algo inteligente. Pesquisadores, ao desenvolve-la, devem criar uma IA direcionada ao benefício da humanidade e não somente para testar se o sistema criado é inteligente.

Sobre o número 5, prevenção de corrida: A cooperação entre equipes de desenvolvimento é um objetivo bem interessante e possivelmente pode até mesmo acelerar o desenvolvimento de sistemas com IA. Mas, se essas equipes pertencem a empresas privadas, isso dificilmente será alcançado. As empresas irão focar em manter para si a sua propriedade intelectual. Mas, é claro, se uma empresa desenvolver um sistema mais avançado, uma outra ficará querendo que esta compartilhe o seu conhecimento.

Sobre o 10º princípio, meio que estão prevendo que os sistemas com IA devem simular a forma como humanos tomam decisões, e assim esses sistemas devem ter seus valores alinhados com os valores humanos. Mas os valores dos seres humanos dependem da cultura na qual estão inseridos. Um sistema alinhado com o valor de alguém do Brasil possuirá diferença nos valores de alguém de outro país. Os próprios pesquisadores se questionam sobre isso no 2º princípio.

Sobre o 15º princípio, um sonho de compartilhamento de prosperidade entre os países. Mas de que forma ocorreria esse compartilhamento? Vamos oferecer a nossa prosperidade para um povo que ainda não entrou em contato com a tecnologia de sistemas computacionais? Ou esses avanços serão abertos para que outras nações possam aproveitar desses benefícios?

E no 17º eles estão falando da IA, ou de uma equipe que controle essa IA, tomar o controle da sociedade? Exterminador do Futuro e 1984 vêm à mente lendo este princípio.

Esses são os princípios que, como mencionado anteriormente, deverão guiar os pesquisadores no desenvolvimento de uma IA que beneficie toda a humanidade. Alguns mais fáceis de cumprir do que outros.


Leia mais sobre como esses princípios foram desenvolvidos aqui.

Lista com os nomes dos cientistas que assinaram os Princípios, aqui.

Fonte: Robert Muracami, g1.globo.com, @jovempannews, midianinja.org, deviante.com.br

HOREBE SEGURANÇA ELETRÔNICA

VET-AGRO 10/01/24
PORTAL RM DEPOIS ESPAÇO POLITICA NOVO

VEJA TAMBÉM

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

LATERAL 01 ABAIXO IMAGEM DO DIA
LABOCLIN
MALHAÇÃO KIT JUDÔ
KI PIZZA
SALMO 91 E SALMO 23 PARA PROTEÇÃO E PROSPERIDADE
SINDSMUJ
Portal RM
ANUNCIE AQUI LATERAL 3