cassino brabet ✔ Os seres humanos podem criar robôs morais?

2025-05-01 07:14:53丨【cassino brabet】
Foto do arquivo: fornecida por 【cassino brabet】
Foto do arquivo: fornecida por 【cassino brabet】

Os seres humanos podem criar robôs morais?

Intelectual

Wang Xiaohong cassino brabet

Editorial em 18 de dezembro de 2018, o grupo de especialistas de alto nível da UE divulgou um projeto de inteligência artificial dos padrões morais para o grupo de especialistas de alto nível.No contexto de muitas pessoas que se preocupam com a inteligência artificial substituindo os seres humanos e destruindo a ética, o rascunho visa orientar as pessoas a criar uma "inteligência artificial confiável".Como podemos tornar os robôs mais confiáveis?Eles podem lhes dar cultivo moral?Sobre esse tópico, o autor entrevistou o excelente professor de filosofia científica e história científica da Universidade de Pittsburgh, e Korin Allen, professor do professor de palestras do rio Yangtze da Universidade Xi'an Jiaotong. cassino brabet

P: Qual é a "moralidade" da inteligência artificial?

Allen: "Moralidade" da inteligência artificial, ou "máquina moral" e "moralidade da máquina", tem muitos significados diferentes.Atribuo esses significados a 3 tipos.No primeiro significado, a máquina deve ter a mesma capacidade moral que os humanos.No segundo significado, a máquina não precisa ter capacidades humanas, mas deve ser sensível aos fatos dos fatos relacionados à moral e pode tomar decisões independentes com base nos fatos.O terceiro significado é que o designer de máquinas considerará a moralidade da máquina no nível mais baixo, mas não dá ao robô a capacidade de prestar atenção aos fatos morais e tomar decisões.

Atualmente, o primeiro significado do significado ainda é uma fantasia científica.Portanto, no livro "Moral Machine", passei um pouco a discussão e estou mais interessado em discutir as máquinas que estão entre o segundo e o terceiro significados.Atualmente, esperamos que os designers possam considerar fatores morais ao projetar robôs.Isso ocorre porque, sem a supervisão direta humana, os robôs podem levar cada vez mais trabalho em domínio público.É a primeira vez que podemos operar sem supervisão.Em uma situação "não supervisionada", esperamos que as máquinas possam tomar mais decisões morais. cassino brabet

P: Como tornar a inteligência artificial moral? cassino brabet

Allen: A primeira coisa a dizer é que os próprios humanos não são completamente morais.A essência dos seres humanos é fazer as coisas para o interesse próprio, em vez de considerar as necessidades e interesses dos outros.No entanto, uma inteligência moral deve aprender a restringir seus desejos para facilitar os outros.Os robôs que construímos agora não têm nossos próprios desejos, nem têm sua própria motivação, porque não têm interesses egoístas.Portanto, existem grandes diferenças entre o treinamento de inteligência artificial e treinadores.O problema do treinamento de máquinas é como podemos fornecer habilidades de máquinas e fazer com que notifique com sensibilidade quais valores morais dos seres humanos são importantes.Além disso, as máquinas precisam perceber que seu comportamento causa dor aos seres humanos?Eu acho que é necessário.Podemos considerar que a máquina pode agir dessa maneira através da programação e não precisamos considerar como priorizar o robô aos interesses dos outros. .

Pergunta: Que modo deve ser usado a moralidade do desenvolvimento da inteligência artificial?

Allen: Discutimos o modelo de desenvolvimento moral em "Moral Machine", pensando que o modelo de mixagem de "de cima para baixo" e "Bottom -up" é a melhor resposta.Primeiro de tudo, fale sobre o que "de cima para baixo" e "Bottom -up" significa o que significa.Usamos esses dois termos de duas maneiras diferentes.Uma é a perspectiva do projeto, ou seja, a perspectiva de alguma ciência técnica e da computação, como aprendizado de máquina e evolução manual, e a outra é uma perspectiva ética.O aprendizado de máquina e a evolução artificial não iniciam nenhum princípio.Por outro lado, o método "Top -Robne" significa um modelo que fornece as regras ao processo de tomada de decisão e tente escrever regras para orientar o aprendizado de máquina.Podemos dizer que no campo da engenharia, "de baixo para cima" é aprender a experiência com os dados, e "de cima para baixo" é pré -representado com certas regras. cassino brabet

Existem também "diferenças diferentes" em alguns campos de ética, como Kant, bem como escolas utilitárias anteriores, como Bian Qin e Mier, elas são mais como "de cima para baixo".Esses estudiosos tentam formular regras e princípios gerais, a fim de julgar se um comportamento é moralmente através dessas "regras e quadros".Para a lei moral de Kant, seu significado contém várias regras específicas, como "não mentir".

A visão de Moralidade de Aristóteles é bem diferente.Ele acredita que a moralidade deve ser aprendida por uma pessoa através do treinamento.Portanto, o ponto de vista de Aristóteles é ainda mais inclinado ao método "de baixo para cima".Quando praticamos a moralidade, chamamos isso de ética virtude.Com isso, uma pessoa se tornará mais virtuosa e melhor.

Eu acho que a visão de Aristóteles é mais correta.Como os humanos não confiam em "cegamento e cegueira" para desenvolver hábitos, eles também pensam em hábitos e pensam em quais princípios são necessários.Aristóteles notou que havia uma interação entre o instilamento e o treinamento de hábitos.Acreditamos que essa abordagem também é aplicável à construção da inteligência moral artificial.Em muitas decisões reais de tempo, não temos tempo suficiente para refletir sobre os princípios teóricos ou por trás do comportamento.No entanto, também podemos aprender com os erros, porque podemos usar esses princípios "de cima para baixo" para avaliar o que fazemos e depois ajustar e re -treinar. cassino brabet

Esta é a idéia básica de um método misto.Por exemplo, quando você ainda é criança, que coisas ruins você faz com seus irmãos e irmãs?Existem tais princípios em muitas tradições morais: "Na maneira como você se trata ou a maneira como deseja ser tratada por outras pessoas para tratar os outros", às vezes as pessoas também chamam esse princípio como regra de ouro.Portanto, você não é apenas informado de não fazer isso, mas não é apenas punido.

Pergunta: Devo restringir o desenvolvimento da inteligência artificial?

Allen: Eu acho que isso depende do campo de aplicação.Não estou preocupado que robôs ou inteligência artificial substituam os seres humanos.Por exemplo, de repente descobrindo que os robôs podem produzir robôs, e o que precisamos fazer é cortar a energia.

Obviamente, existem alguns lugares onde as aplicações de inteligência artificial devem ser interrompidas.Da perspectiva da história humana, uma vez que alguém concebe uma arma, será difícil impedir os desejos dos outros e de suas ambições.Armas e drones nucleares são bons exemplos. cassino brabet

No entanto, não acho que outras formas de desenvolvimento de inteligência artificial devam ser evitadas.Que consequências precisamos pensar sobre a tecnologia para a vida?Que permissões devem ser anexadas quando estão enfrentando a situação dos pedestres atravessando a estrada?Os drones podem parar com segurança, ou é provável que atinja pedestres como um motorista humano?Essas são questões que precisamos pensar em inteligência artificial.Os carros dirigidos não devem apenas parar de desenvolver, mas devem investir mais.

P: Os robôs se tornarão melhores ou mais perigosos?

Allen: Nos últimos 10 anos, o rápido desenvolvimento da inteligência artificial em alguns aspectos é surpreendente, mas não está satisfeito.Na minha opinião, a possibilidade de carros não tripulados será colocada em condições reais na estrada nos próximos 10 anos.A Apple lançou um Siri Smart Body, mas na situação atual, a Siri é ruim, não é?Todos os produtos semelhantes que usei, como Alexa, Google Talk, não são satisfatórios.Portanto, não vou me preocupar com o desenvolvimento da inteligência artificial de uma perspectiva ética.Essas empresas realmente lançaram esses produtos, mas é ainda mais surpreendente que as pessoas realmente ajustem seu comportamento para se adaptar à inteligência artificial em grande parte, porque se você souber que o uso da Siri como uma pessoa normal, nunca entenderá.Os seres humanos estão fazendo ajustes, não máquinas, porque as máquinas não são sistemas adaptativos.Em outras palavras, tem adaptabilidade mais fraca que os humanos.Este é o que mais me faz.

Obviamente, o que me preocupo não é o que a máquina faz além das expectativas humanas, mas que elas podem mudar e restringir nosso comportamento.Alphago venceu, mas não mudou nossa vida diária, então não havia nada com que se preocupar.Estou preocupado que as pessoas conversem com máquinas de maneira estúpida para que as máquinas possam fazer as coisas de acordo com nossas idéias.Você sabe, isso tem muitos perigos em potencial.Ele mudou sutilmente nosso comportamento habitual, tornando -nos mais toleráveis ​​a alguns tipos de erros e mais severos em alguns erros.As pessoas prevêem que podem tolerar os erros morais cometidos pelos seres humanos, mas os humanos podem não tolerar esses erros na máquina.Após o planejamento, ainda é mais tolerante com os outros se ocorrer em uma máquina que ocorre na máquina.Nos últimos 10 anos, essa mudança ocorreu.Mesmo que o software se torne melhor, a máquina se tornará melhor, mas sempre haverá um perigo que permite que os humanos se adaptem às máquinas, em vez de melhorar as capacidades humanas verdadeiramente.

(O autor é o diretor do Laboratório de Filosofia de Cálculo da Universidade Xi'an Jiaotong, Wen Xinhong também contribuiu para este artigo)

Fale conosco. Envie dúvidas, críticas ou sugestões para a nossa equipe através dos contatos abaixo:

Telefone: 0086-10-8805-0795

Email: portuguese@9099.com

Links
cassino brabet