Ele não segredo neste momento que há alguns realmente inteligentes no mundo de hoje e # 8217. De tudo a carros auto-condução, para algo tão simples só leva 9 linhas de código. Muitos sistemas de AI hoje usam algo chamado uma rede neural, que tenta imitar as habilidades cognitivas do cérebro humano. Um cérebro humano consiste em 100 bilhões de células chamadas neurônios, que são conectados por sinapses. Quando uma entrada sináptica suficiente atinge um neurônio, esse neurônio também desencadeará em um processo chamado Pensamento. Isto é o que as redes neurais têm como objetivo ser, embora 9 linhas é apenas cerca de 1 neurônio. O principal objetivo das redes neurais e da AI é tentar alcançar o mesmo nível de cognição e aprender como humano, onde se torna difícil distinguir um do outro. Para cada sucesso feito em uma área, há muitas falhas que surgem, o que significa que há muitos exemplos dos problemas com a tentativa de ensinar redes neurais a realizar problemas da maneira correta.
Muitas redes neurais são projetadas para aprender diferentes tarefas e fornecer resultados consistentes de volta. Isso é feito através de um processo de treinamento onde, simplesmente, as entradas são fornecidas e constantemente ajustadas até que a saída correta seja dada. Através deste processo, as redes neurais podem aprender a andar ou jogar ou até mesmo enganar um sistema. As redes neurais tentam ser como a mente humana, mas, muito parecida com a mente humana, elas podem aprender as coisas erradas e realizar tarefas de uma maneira muito diferente. Este problema pode resultar em resolução de problemas muito interessante. Um ótimo exemplo é um experimento realizado em um sistema chamado Polyworld. O Polyworld é um simulador ecológico de um simples mundo plano, possivelmente dividido por algumas barreiras intransponíveis, e habitadas por uma variedade de organismos e alimentos livremente crescentes (yaeger). Durante um dos ensaios disso, um erro de entrada foi feito e, enquanto a comida deu energia, criando uma criança não custou energia. Isso levou alguns dos organismos na simulação para chegar à conclusão de que um estilo de vida principalmente sedentário foi a melhor opção, desde que se reproduziu e, com muito uma modesta proposta moda, consumia seus descendentes para fazer mais energia. Isso resolveu o problema de ter que procurar alimentos e permitiu que os organismos não tivessem que gastar muita energia para viver.
Isso significa que, embora possamos treinar uma rede neural para criar suas próprias soluções para dar problemas, neste caso de sobrevivência, não somos capazes de ensinar-lhes uma forma de moralidade e que comem as crianças, embora práticas, nem ética, nem é uma solução real para viver. Como esses tipos de sistemas se ensinam essencialmente novas soluções após algum treinamento, eles podem se adaptar a novas circunstâncias e encontrar novas soluções à medida que vão, e pode levar a algumas histórias de sucesso incríveis. Em uma instância, o Facebook projetou sua própria AI para aprender como fazer e transitar ofertas, que foram originalmente treinados com outro sistema AI. Pesquisadores da Investigação de Inteligência Artificial do Facebook (Feira) iniciou um estudo sobre negociação multi-problema. Dois agentes no sistema de rede receberam um conjunto de itens e disseram para dividi-los entre si. Enquanto cada agente foi programado com o quão altamente valeria certos itens, eles não estavam cientes do valor de cada item para seus oponentes. Esses tipos de interações tinham cada sistema tentando criar planos de longo prazo para atender às suas necessidades e obter o melhor valor pessoal em cada interação. Um dos objetivos dos feiras AI Network Systems foi criar uma ideia conhecida como lançamentos de diálogo. Estes permitiram que os sistemas de pensamento de longo prazo entendessem o fluxo de uma conversa e dirigem por dentro e longe de qualquer parte da conversa considerada desinformada, confusa ou frustrante.
O conhecimento desses tipos de interações permite que um desses sistemas planeje conversas futuras e gere mais valor para si mesmos em futuras interações. Um problema desses experimentos, no entanto, foi que as redes criaram sua própria língua, que era essencialmente uma discussão muito simplificada e concluiria com acordos sendo atingidos, embora isso tenha sido rapidamente desligado em favor do inglês básico. Uma vez que o sistema entendeu o que era necessário e esperado dele e poderia alcançar lida favoráveis aproximadamente quantas vezes como ofertas desfavoráveis. Em outras experiências, a maioria das pessoas não percebeu que eles estavam negociando com um sistema e não outra pessoa. Outros sistemas podem pegar a linguagem muito rapidamente, até mesmo em detrimento de si mesmos. Um mishap que envolveu uma AI aprendizado foi a Microsoft & # 8217; S Twitter AI Tay. Liberado para o público em março de 2016 e foi projetado para imitar uma menina de 19 anos e aprender com interagir com as pessoas no Twitter. Porque as redes neurais e outros AI precisam de alguma forma de uma base para aprender, assim como os humanos fazem, muitas pessoas começaram a abusar disso e ensinaram suas observações inflamatórias. O problema geralmente aceito com Tay é que ela não foi projetada com qualquer tipo de inteligência emocional. Isso levou a ela com observações sobre Hitler e outras declarações controversas. Enquanto Tay parece que ela deveria ter conseguido, como muitos sistemas de aprendizagem diante dela, ela simplesmente não aprende tão como pretendido.
No caso de um sistema de aprendizagem utilizado pelos estudantes de Berkeley, um experimento em forma de recompensa foi conduzido onde uma rede neural foi recompensada toda vez que tocou uma bola de futebol. A fim de alcançar a maioria das recompensas por sessão, a rede aprendeu que poderia chegar à bola e vibrar, tocando assim a bola, tanto quanto possível, como poderia, receber uma recompensa por cada toque. No mesmo artigo, uma rede neural foi recompensada por alcançar um objetivo, e que tudo é necessário para realizar. A rede descobriu que não foi punida por se afastar do objetivo, então começou a alcançar o objetivo e se mover em um círculo em torno de uma extremidade do objetivo para que ela tivesse um caminho estável e pudesse continuar se movendo e sendo recompensado. Parece que quando a recompensa impulsionada, se não houver conjunto de regras que não pode fazer x, sistemas de rede neurais amáveis maneiras muito únicas de realizar a tarefa dada de maneiras que lhes dão mais recompensa, sem realizar o objetivo real do experimento. Muitos sistemas de rede neurais são dadas tarefas em que aprendem a andar, com vários membros adicionados ou subtraídos, e com diferentes obstáculos.
Alguns aprendem a andar em pombos curtos, enquanto outros aprendem como corretamente corretamente, mantendo seu equilíbrio. Cada sistema recebe uma estrutura e cada vez que falham, uma nova geração é feita com o conhecimento das gerações prévias, por isso, alguém meio que o impulso adiante é ganho. Mas em outros casos mais extremos, como artigo de David Ha & # 8217, quando o agente da rede neural é permitido alterar seu próprio corpo, a fim de realizar certos objetivos, como alcançar o fim de uma área, o agente pode criar maneiras nunca imaginou. Em um ensaio, o agente fez a sua perna de trás mais estável e utilizável como uma base e a perna da frente permitiu que ele fosse curto lúpulo para se locomover diferentes obstáculos. Um dos agentes da rede neural projetou o corpo e um corpo de ter uma perna extremamente longa que permitiria que ele simplesmente caia. Nos ensaios dados, o único objetivo era torná-lo tão longe possível o objetivo, mas os agentes não foram obrigados a alcançá-lo. Ao fazer uma grande perna e cair, esses sistemas poderiam atender a todos os requisitos e não tiveram necessidade de alcançar o objetivo em si.
Os sistemas de rede neural estão avançando todos os dias e ficam mais inteligentes e mais inteligentes a cada nova iteração. Mas só porque eles são mais inteligentes não significa que eles vão completar exatamente tarefas e atender aos padrões humanos. Em um nível de cognição, as redes neurais são, na maioria dos casos, nem perto de onde o cérebro humano é, e só pode pensar em certas tarefas 1-dinmensionalmente. Muitas tarefas baseadas em recompensas dadas são trabalhadas e a melhor maneira de realizar o objetivo é negligenciado pela melhor maneira de alcançar a recompensa. Outros sistemas de aprendizagem de idiomas só realizam o que eles podem parar de volta. Enquanto estes são sistemas altamente avançados, eles não cumprem verdadeiramente a cognição ativa de que a mente humana funciona, embora existam muitos novos programas que saem a cada ano. Nos próximos anos, podemos até ter alguns sistemas mostrando sinais de emoções.
Nossos editores vão te ajudar a corrigir qualquer erro para que você tenha a nota máxima!
Comece agora mesmoEnviaremos uma amostra de ensaio para você em 2 horas. Se precisar de ajuda mais rápido, você sempre pode usar nosso serviço de redação personalizado.
Consiga ajuda com meu redação