Ferramentas Gratuitas de Marketing Digital - O que é - Google Trends ?

Ferramentas Gratuitas de Marketing Digital - O que é - Google Trends



Esta é uma ferramenta gratuita do Google. E pode ser considerada uma das mais importantes de todas as ferramentas. Desde as pequenas empresas até as maiores, utilizam o Google Trends para encontrar quais palavras-chave são mais buscadas pelos usuários.
Com isso é possível montar toda uma estratégia para conseguir mais visualizações e retornos em suas campanhas. Ela é uma ferramenta de busca muito, mas muito fácil de usar e bastante intuitiva. Ela também mostra as palavras-chave mais quentes por região. Isso é muito importante. Além disso, você consegue fazer comparações de palavras-chave para ver quais são mais procuradas e tomar a decisão certa. Vale muito a pena.



Deixe seus comentários, compartilhe este artigo!


⬛◼◾▪ Social Media ▪◾◼⬛
• FACEBOOK • TWITTER • INSTAGRAM  • TUMBLR   GOOGLE+   LINKEDIN   PINTEREST


⬛◼◾▪ Blogs ▪◾◼⬛
• SFE®  • SFE Tech®  • SFE Terms®  • SFE Books®  • SFE Biography® 

⬛◼◾▪ CONTATO ▪

Ferramentas Gratuitas de Marketing Digital - O que é - Google Analytics

Ferramentas Gratuitas de Marketing Digital - O que é - Google Analytics


Esta é uma ferramenta gratuita do Google. Com ela, você consegue monitorar todo o site do seu cliente. Exatamente. Esta é uma ferramenta que é indispensável até mesmo para as grandes empresas que possuem altos recursos.
O diferencial desta ferramenta é que você consegue saber quantas pessoas acessaram o site de sua campanha, quantas pessoas compraram ou tiveram interesses em tais produtos, quantas pessoas estão acessando o seu site por meio das redes sociais, e muito mais! Vale muito a pena.



Deixe seus comentários, compartilhe este artigo!


⬛◼◾▪ Social Media ▪◾◼⬛
• FACEBOOK • TWITTER • INSTAGRAM  • TUMBLR   GOOGLE+   LINKEDIN   PINTEREST


⬛◼◾▪ Blogs ▪◾◼⬛
• SFE®  • SFE Tech®  • SFE Terms®  • SFE Books®  • SFE Biography® 

⬛◼◾▪ CONTATO ▪

Inteligência Artificial - Machine Intelligence - IA

Inteligência Artificial - Machine Intelligence - IA


Artificial Intelligence
Resultados em 28.12.2016:
 Google:  78.500.000 resultados
     Bing:    3.820.000 resultados
Youtube   3.370.000 resultados
      TED:            129 resultados 
Twitter, Google+


IA - Inteligência Artificial (por vezes mencionada pela sigla em inglês AI - Artificial Intelligence) é a inteligência similar à humana exibida por mecanismos ou software. Também é um campo de estudo acadêmico. Os principais pesquisadores e livros didáticos definem o campo como "o estudo e projeto de agentes inteligentes", onde um agente inteligente é um sistema que percebe seu ambiente e toma atitudes que maximizam suas chances de sucesso. John McCarthy, quem cunhou o termo em 1956 ("numa conferência de especialistas celebrada em Darmouth Colege" Gubern, Román: O Eros Eletrônico), a define como "a ciência e engenharia de produzir máquinas inteligentes". É uma área de pesquisa da computação dedicada a buscar métodos ou dispositivos computacionais que possuam ou multipliquem a capacidade racional do ser humano de resolver problemas, pensar ou, de forma ampla, ser inteligente. Também pode ser definida como o ramo da ciência da computação que se ocupa do comportamento inteligente ou ainda, o estudo de como fazer os computadores realizarem coisas que, atualmente, os humanos fazem melhor.

O principal objetivo dos sistemas de IA, é executar funções que, caso um ser humano fosse executar, seriam consideradas inteligentes. É um conceito amplo, e que recebe tantas definições quanto damos significados diferentes à palavra Inteligência. Podemos pensar em algumas características básicas desses sistemas, como a capacidade de raciocínio (aplicar regras lógicas a um conjunto de dados disponíveis para chegar a uma conclusão), aprendizagem (aprender com os erros e acertos de forma a no futuro agir de maneira mais eficaz), reconhecer padrões (tanto padrões visuais e sensoriais, como também padrões de comportamento) e inferência (capacidade de conseguir aplicar o raciocínio nas situações do nosso cotidiano).

O desenvolvimento da área começou logo após a Segunda Guerra Mundial, com o artigo "Computing Machinery and Intelligence" do matemático inglês Alan Turing, e o próprio nome foi cunhado em 1956. Seus principais idealizadores foram os cientistas Herbert SimonAllen NewellJohn McCarthyWarren McCullochWalter Pitts e Marvin Minsky, entre outros. A construção de máquinas inteligentes interessam à humanidade há muito tempo, havendo na história tanto um registro significante de autômatos mecânicos (reais) quanto de personagens místicos (fictícios) construídos pelo homem com inteligência própria, tais como o Golem e o Frankenstein. Tais relatos, lendas e ficções demonstram expectativas contrastantes do homem, de fascínio e de medo, em relação à Inteligência Artificial.

Apenas recentemente, com o surgimento do computador moderno, é que a IA ganhou meios e massa crítica para se estabelecer como ciência integral, com problemáticas e metodologias próprias. Desde então, seu desenvolvimento tem extrapolado os clássicos programas de xadrez ou de conversão e envolvido áreas como visão computacional, análise e síntese da voz, lógica difusa, redes neurais artificiais e muitas outras. Inicialmente a IA visava reproduzir o pensamento humano. A Inteligência Artificial abraçou a ideia de reproduzir faculdades humanas como criatividade, auto-aperfeiçoamento e uso da linguagem. Porém, o conceito de inteligência artificial é bastante difícil de se definir. Por essa razão, IA foi (e continua sendo) uma noção que dispõe de múltiplas interpretações, não raro conflitantes ou circulares.

Visão geral

A questão sobre o que é IA, mesmo como definida anteriormente, pode ser separada em duas partes: "qual a natureza do artificial" e "o que é inteligência". A primeira questão é de resolução relativamente fácil, apontando no entanto para a questão de o que poderá o homem construir.

A segunda questão seria consideravelmente mais difícil, levantando a questão da consciência, identidade e mente (incluindo a mente inconsciente) juntamente com a questão de que componentes estão envolvidos no único tipo de inteligência que universalmente se aceita como estando ao alcance do nosso estudo: a inteligência do ser humano. O estudo de animais e de sistemas artificiais que não são modelos triviais, começa a ser considerados como matéria de estudo na área da inteligência.

Ao conceituar IA, presume-se a interação com o ambiente, diante de necessidades reais como relações entre indivíduos semelhantes, a disputa entre indivíduos diferentes, perseguição e fuga; além da comunicação simbólica específica de causa e efeito em diversos níveis de compreensão intuitiva, consciente ou não.

Suponhamos uma competição de cara ou coroa, cujos resultados sejam observados ou não. Se na segunda tentativa der o mesmo resultado que a primeira, então não existiam as mesmas chances para ambas as 2 opções iniciais. Claro que a coleta de informação em apenas duas amostragens é confiável apenas porque a quantidade de tentativas é divisível pelo número de opções de resultados prováveis.

A verdade é que o conceito de cara ou coroa está associado a artigos de valor, como moedas e medalhas que podem evitar que as pessoas abandonem o jogo e induzir participantes a acompanhar os resultados até o final. Para manter a disposição do adversário em desafiar a máquina seria necessário aparentar fragilidade e garantir a continuidade da partida. Isso é muito utilizado em máquinas de cassino, sendo que vários apostadores podem ser induzidos a dispensar consideráveis quantias em apostas.

A utilização de uma máquina de resultados pode compensar a ausência de um adversário, mas numa partida de xadrez, por exemplo, para que a máquina não precise armazenar todas as informações que excedem a capacidade de próprio universo imaginável são necessárias fórmulas que possam ser armazenadas para que então sejam calculadas por princípios físicos, lógicos, geométricos, e estatísticos para refletir o sistema completo em cada uma das suas partes; como a integração do Google com Wikipedia, por exemplo.

Uma popular e inicial definição de IA, introduzida por John McCarthy na famosa conferência de Dartmouth em 1956 é "fazer a máquina comportar-se de tal forma que seja chamada inteligente caso fosse este o comportamento de um ser humano." No entanto, esta definição parece ignorar a possibilidade de existir a IA Forte.

Outra definição de Inteligência Artificial é a inteligência que surge de um "dispositivo artificial". A maior parte das definições podem ser categorizadas em sistemas que: "pensam como um humano; agem como um humano; pensam racionalmente ou agem racionalmente".

História

Os primeiros anos da IA foram repletos de sucessos – mas de uma forma limitada. Considerando-se os primeiros computadores, as ferramentas de programação da época e o fato de que apenas alguns anos antes os computadores eram vistos como objetos capazes de efetuar operações aritméticas e nada mais, causava surpresa o fato de um computador realizar qualquer atividade remotamente inteligente.

O sucesso inicial prosseguiu com o General Problem Solver (Solucionador de problemas gerais) ou GPS, desenvolvido por Newell e Simon. Esse programa foi projetado para imitar protocolos humanos de resolução de problemas. Dentro da classe limitada de quebra-cabeças com a qual podia lidar, verificou-se que a ordem em que os seres humanos abordavam os mesmos problemas. Desse modo, o GPS talvez tenha sido o primeiro programa a incorporar a abordagem de “pensar de forma humana”.

Desde o início os fundamentos da IA tiveram o suporte de várias disciplinas que contribuíram com ideias, pontos de vista e técnicas. Os filósofos (desde 400 a.C.) tornaram a IA concebível, considerando as ideias de que a mente é, em alguns aspectos, semelhante a uma máquina, de que ela opera sobre o conhecimento codificado em alguma linguagem interna e que o pensamento pode ser usado para escolher as ações que deverão ser executadas. Por sua vez, os matemáticos forneceram as ferramentas para manipular declarações de certeza lógica, bem como declarações incertas e probabilísticas. Eles também definiram a base para a compreensão da computação e do raciocínio sobre algoritmos.

Os economistas formalizaram o problema de tomar decisões que maximizam o resultado esperado para o tomador de decisões. Os psicólogos adotaram a ideia de que os seres humanos e os animais podem ser considerados máquinas de processamento de informações. Os lingüistas mostraram que o uso da linguagem se ajusta a esse modelo. Os engenheiros de computação fornecem os artefatos que tornam possíveis as aplicações de IA. Os programas de IA tendem a serem extensos e não poderiam funcionar sem os grandes avanços em velocidade e memória que a indústria de informática tem proporcionado.

Atualmente, a IA abrange uma enorme variedade de subcampos. Dentre esses subcampos está o estudo de modelos conexionistas ou redes neurais. Uma rede neural pode ser vista como um modelo matemático simplificado do funcionamento do cérebro humano. Este consiste de um número muito grande de unidades elementares de processamento, ou neurônios, que recebem e enviam estímulos elétricos uns aos outros, formando uma rede altamente interconectada.

No processamento, são compostos os estímulos recebidos conforme a intensidade de cada ligação, produzindo um único estímulo de saída. É o arranjo das interconexões entre os neurônios e as respectivas intensidades que define as principais propriedades e o funcionamento de uma RN. O estudo das redes neurais ou o conexionismo se relaciona com a capacidade dos computadores aprenderem e reconhecerem padrões. Podemos destacar também o estudo da biologia molecular na tentativa de construir vida artificial e a área da robótica, ligada à biologia e procurando construir máquinas que alojem vida artificial. Outro subcampo de estudo é a ligação da IA com a Psicologia, na tentativa de representar na máquina os mecanismos de raciocínio e de procura.

Nos últimos anos, houve uma revolução no trabalho em IA, tanto no conteúdo quanto na metodologia. Agora, é mais comum usar as teorias existentes como bases, em vez de propor teorias inteiramente novas, fundamentar as informações em teoremas rigorosos ou na evidência experimental rígida, em vez de utilizar como base a intuição e destacar a relevância de aplicações reais em vez de exemplos de brinquedos.

A utilização da IA permite obter não somente ganhos significativos de performance, mas também possibilita o desenvolvimento de aplicações inovadoras, capazes de expandir de forma extraordinária nossos sentidos e habilidades intelectuais. Cada vez mais presente, a IA simula o pensamento humano e se alastra por nosso cotidiano.

Humanoide
Investigação na IA experimental

IA começou como um campo experimental nos anos 50 com pioneiros como Allen Newell e Herbert Simon, que fundaram o primeiro laboratório de IA na Universidade Carnegie Mellon, e McCarty que juntamente com Marvin Minsky, que fundaram o MIT AI Lab em 1959. Foram eles alguns dos participantes na famosa conferência de verão de 1956 em Darthmouth College.

Historicamente, existem dois grandes estilos de investigação em IAIA "neats" e IA "scruffies".


IA "neats", limpa, clássica ou simbólica. Envolve a manipulação de símbolos e de conceitos abstratos, e é a metodologia utilizada na maior parte dos sistemas periciais.
Paralelamente a esta abordagem existe a abordagem IA "scruffies", ou "conexionista", da qual as redes neuronais são o melhor exemplo. Esta abordagem cria sistemas que tentam gerar inteligência pela aprendizagem e adaptação em vez da criação de sistemas desenhados com o objectivo especifico de resolver um problema. Ambas as abordagems apareceram num estágio inicial da história de IA. Nos anos 60s e 70s os coneccionistas foram retirados do primeiro plano da investigação em IA, mas o interesse por esta vertente da IA foi retomada nos anos 80s, quando as limitações da IA "limpa" começaram a ser percebidas.

Pesquisas sobre IA foram intensamente custeadas na década de 1980 pela Agência de Projetos de Pesquisas Avançadas sobre Defesa (“Defense Advanced Research Projects Agency”), nos Estados Unidos, e pelo Projeto da Quinta Geração (“Fifth Generation Project”), no Japão. O trabalho subsidiado fracassou no sentido de produzir resultados imediatos, a despeito das promessas grandiosas de alguns praticantes de IA, o que levou proporcionalmente a grandes cortes de verbas de agências governamentais no final dos anos 80, e em conseqüência a um arrefecimento da atividade no setor, fase conhecida como O inverno da IA. No decorrer da década seguinte, muitos pesquisadores de IA mudaram para áreas relacionadas com metas mais modestas, tais como aprendizado de máquinas, robótica e visão computacional, muito embora pesquisas sobre IA pura continuaram em níveis reduzidos.

Abordagens

Não existe uma teoria ou paradigma unificador que orienta a pesquisa de IA. Pesquisadores discordam sobre várias questões. Algumas das perguntas constantes mais longas que ficaram sem resposta são as seguintes: a IA deve simular inteligência natural, estudando psicologia ou neurologia? Ou será que a biologia humana é tão irrelevante para a pesquisa de IA como a biologia das aves é para a engenharia aeronáutica? O comportamento inteligente pode ser descrito usando princípios simples e elegantes (como lógica ou otimização)? Ou ela necessariamente requer que se resolva um grande número de problemas completamente não relacionados? A inteligência pode ser reproduzida usando símbolos de alto nível, similares às palavras e ideias? Ou ela requer processamento "sub-simbólico?" John Haugeland, que cunhou o termo GOFAI (Good Old-Fashioned Artificial Intelligence - Boa Inteligência Artificial à Moda Antiga), também propôs que a IA deve ser mais apropriadamente chamada de Inteligência Sintética, um termo que já foi adotado por alguns pesquisadores Não-GOFAI.

Cibernética e simulação cerebral

Nos antes de 1940 e 1950, um número de pesquisadores exploraram a conexão entre neurologia, teoria da informação e cibernética. Alguns deles construíram máquinas que usaram redes eletrônicas para exibir inteligência rudimentar, como as tartarugas de W. Grey Walter e a Besta de Johns Hopkins. Muitos desses pesquisadores se reuniram para encontros da Sociedade teleológica da Universidade de Princeton e o Ratio Club na Inglaterra. Em 1960, esta abordagem foi abandonada, apesar de seus elementos serem revividos na década de 1980.

Sub-simbólica

Inteligência computacional
Interesse em redes neurais e "conexionismo" foi revivida por David Rumelhart e outros em meados de 1980. Estas e outras abordagens sub-simbólicas, como sistemas de fuzzy e computação evolucionária, são agora estudados coletivamente pela disciplina emergente inteligência computacional.

IA forte e IA fraca

Entre os teóricos que estudam o que é possível fazer com a IA existe uma discussão onde se consideram duas propostas básicas: uma conhecida como "forte" e outra conhecida como "fraca". Basicamente, a hipótese da IA forte considera ser possível criar uma máquina consciente, ou seja, afirma que os sistemas artificiais devem replicar a mentalidade humana.

Inteligência artificial forte

A investigação em Inteligência Artificial Forte aborda a criação da forma de inteligência baseada em computador que consiga raciocinar e resolver problemas; uma forma de IA forte é classificada como auto-consciente.

IA forte é tema bastante controverso, pois envolve temas como consciência e fortes problemas éticos ligados ao que fazer com uma entidade que seja cognitivamente indiferenciável de seres humanos.

A ficção científica tratou de muitos problemas desse tipo. Isaac Asimov, por exemplo, escreveu O Homem Bicentenário, onde um robô consciente e inteligente luta para possuir um status semelhante ao de um humano na sociedade. E Steven Spielberg dirigiu "A.I. Inteligência Artificial" onde um garoto-robô procura conquistar o amor de sua "mãe", procurando uma maneira de se tornar real. Por outro lado, o mesmo Asimov reduz os robôs a servos dos seres humanos ao propor as três leis da robótica.

Inteligência artificial fraca

Trata-se da noção de como lidar com problemas não determinísticos.

Uma contribuição prática de Alan Turing foi o que se chamou depois de Teste de Turing (TT), de 1950: em lugar de responder à pergunta "podem-se ter computadores inteligentes?" ele formulou seu teste, que se tornou praticamente o ponto de partida da pesquisa em "Inteligência Artificial".

O teste consiste em se fazer perguntas a uma pessoa e um computador escondidos. Um computador e seus programas passam no TT se, pelas respostas, for impossível a alguém distinguir qual interlocutor é a máquina e qual é a pessoa.

No seu artigo original ele fez a previsão de que até 2000 os computadores passariam seu teste. Pois bem, há um concurso anual de programas para o TT, e o resultado dos sistemas ganhadores é tão fraco (o último tem o nome "Ella") que com poucas perguntas logo percebe-se as limitações das respostas da máquina. É interessante notar que tanto a Máquina de Turing quanto o Teste de Turing talvez derivem da visão que Turing tinha de que o ser humano é uma máquina.

Há quem diga que essa visão está absolutamente errada, do ponto de vista lingüístico, já que associamos à "máquina" um artefato inventado e eventualmente construído. Dizem eles: "Nenhum ser humano foi inventado ou construído". Afirma-se ainda que a comparação, feita por Turing, entre o homem e a máquina é sinônimo de sua "ingenuidade social", pois as máquinas são infinitamente mais simples do que o homem, apesar de, paradoxalmente, se afirmar que a vida é complexa. No entanto, esta linha de raciocínio é questionável, afinal de contas, os computadores modernos podem ser considerados "complexos" quando comparados ao COLOSSUS (computador cujo desenvolvimento foi liderado por Turing, em 1943), ou a qualquer máquina do início do século XX.

IA fraca centra a sua investigação na criação de inteligência artificial que não é capaz de verdadeiramente raciocinar e resolver problemas. Uma tal máquina com esta característica de inteligência agiria como se fosse inteligente, mas não tem autoconsciência ou noção de si. O teste clássico para aferição da inteligência em máquinas é o Teste de Turing.

Há diversos campos dentro da IA fraca, e um deles é o Processamento de linguagem natural, que trata de estudar e tentar reproduzir os processos de desenvolvimento que resultaram no funcionamento normal da língua. Muitos destes campos utilizam softwares específicos e linguagens de programação criadas para suas finalidades. Um exemplo bastante conhecido é o programa ALICE (Artificial Linguistic Internet Computer Entity, ou Entidade Computadorizada de Linguagem Artificial para Internet), um software que simula uma conversa humana. Programado em Java e desenvolvido com regras heurísticas para os caracteres de conversação, seu desenvolvimento resultou na AIML (Artificial Intelligence Markup Language), uma linguagem específica para tais programas e seus vários clones, chamados de Alicebots.

Muito do trabalho neste campo tem sido feito com simulações em computador de inteligência baseado num conjunto predefinido de regras. Poucos têm sido os progressos na IA forte. Mas dependendo da definição de IA utilizada, pode-se dizer que avanços consideráveis na IA fraca já foram alcançados.


Impossibilidade de Simulação Qualitativa

Foi provado que um simulador qualitativo, completo e robusto não pode existir, ou seja, desde que o vocabulário entrada-saída seja usado (como num algoritmo QSIM), haverá sempre modelos de entrada que causam predições erradas na sua saída. Por exemplo, a noção de infinito é impossível ser tida por uma máquina finita (computador ou neurônios se produzirem apenas um número finito de resultados num número finito de tempo). Neste caso é um simples paradoxo matemático, porque são em número finito as combinações saídas de qualquer conjunto finito. Se a noção de infinito pudesse ser obtida por uma certa combinação finita, isso significaria que o infinito seria equivalente a essa sequência finita, o que é obviamente uma contradição. Por isso, o infinito e outras noções abstratas têm que ser pré-adquiridas numa máquina finita, não são aí programáveis.


Aplicações Práticas de Técnicas de IA

Enquanto que o progresso direcionado ao objetivo final de uma inteligência similar à humana tem sido lento, muitas derivações surgiram no processo. Exemplos notáveis incluem as linguagens Lisp e Prolog, as quais foram desenvolvidas para pesquisa em IA, embora também sejam usadas para outros propósitos. A cultura hacker surgiu primeiramente em laboratórios de IA, em particular no MIT AI Lab, lar várias vezes de celebridades tais como McCarthyMinskySeymour Papert (que desenvolveu a linguagem Logo), Terry Winograd (que abandonou IA depois de desenvolver SHRDLU).

Muitos outros sistemas úteis têm sido construídos usando tecnologias que ao menos uma vez eram áreas ativas em pesquisa de IA. Alguns exemplos incluem:

Planejamento automatizado e escalonamento: a uma centena de milhões de quilômetros da Terra, o programa Remote Agent da NASA se tornou o primeiro programa de planejamento automatizado (autônomo) de bordo a controlar o escalonamento de operações de uma nave espacial. O Remote Agent gerou planos de metas de alto nível especificadas a partir do solo e monitorou a operação da nave espacial à medida que os planos eram executados – efetuando a detecção, o diagnóstico e a recuperação de problemas conforme eles ocorriam.


  • Aplicações de Raciocínio baseado em casos: RBC tem sido utilizado em diversas aplicações como análise financeira, assessoramento de riscos, controle de processos, etc. Exemplos de aplicações de RBC incluem KRITIK, o CLAVIER na Lockheed, o CASELine na British Airways, PROTOS, CASEY, CASCADE, COMPOSER, etc..
  • Aplicações de Algoritmos genéticos: AG são aplicáveis em diversos problemas como escalonamento de horários, sistemas de potência e filogenética. O CS-1 foi o primeiro sistema de classificação aplicando AG.
  • Jogos: o Deep Blue da IBM se tornou o primeiro programa de computador a derrotar o campeão mundial em uma partida de xadrez, ao vencer Garry Kasparov por um placar de 3,5 a 2,5 em um match de exibição em 1996. Kasparov disse que sentiu “uma nova espécie de inteligência” do outro lado do tabuleiro. O valor das ações da IBM teve um aumento de 18 bilhões de dólares. Ainda hoje há indícios que o jogo foi armado, pois a IBM negou-se a entregar os logs sobre o jogo, especialistas afirmam que na verdade o jogo foi uma farsa, pois não era a maquina que estava jogando e sim uma equipe de especialistas em xadrez.
  • Controle autônomo: o sistema de visão de computador ALVINN foi treinado para dirigir um automóvel, mantendo-o na pista. Ele foi colocado na minivan controlada por computador NAVLAB da CMU e foi utilizado para percorrer os Estados Unidos – ao longo de quase 4.600 km o ALVINN manteve o controle da direção do veículo durante 98% do tempo. Um ser humano assumiu o comando nos outros 2%, principalmente na saída de declives. A NAVLAB tem câmeras e vídeo que transmitem imagens da estrada para ALVINN, que então calcula a melhor forma de guiar, baseado na experiência obtida em sessões de treinamento anteriores.
  • Diagnóstico: programas de diagnóstico medico baseados na analise probabilística foram capazes de executar tarefas no nível de um medico especialista em diversas áreas da medicina. Heckerman (1991) descreve um caso em que um importante especialista em patologia de gânglios linfáticos ridiculariza o diagnóstico de um programa em um caso especialmente difícil. Os criadores do programa sugeriram que ele pedisse ao computador uma explicação do diagnóstico. A máquina destacou os principais fatores que influenciaram sua decisão e explicou a interação sutil de vários sintomas nesse caso. Mais tarde, o especialista concordou com o programa.
  • Planejamento logístico: durante a crise do Golfo Pérsico em 1991, as forças armadas dos Estados Unidos distribuíram uma ferramenta denominada Dynamic Analysis and Replanning Tool, ou DART, a fim de realizar o planejamento logístico automatizado e a programação de execução do transporte. Isso envolveu até 50 000 veículos, transporte de carga aérea e de pessoal ao mesmo tempo, e teve de levar em conta os pontos de partida, destinos, rotas e resolução de conflitos entre todos os parâmetros. As técnicas de planejamento da IA permitiram a geração em algumas horas de um plano que exigiria semanas com outros métodos. A Defense Advanced Research Project Agency (DARPA) declarou que essa única aplicação compensou com folga os 30 anos de investimentos da DARPA em IA.
  • Robótica: muitos cirurgiões agora utilizam robôs assistentes em microcirurgias. O HipNav é um sistema que emprega técnicas de visão computacional para criar um modelo tridimensional da anatomia interna de um paciente, e depois utiliza controle robótico para orientar a inserção de uma prótese de substituição do quadril.
  • Reconhecimento de linguagem e resolução de problemas: o PROVERB é um programa computador que resolve quebra-cabeças de palavras cruzadas melhor que a maioria dos seres humanos, utilizando restrições sobre possíveis preenchimentos de palavras, um grande banco de dados de quebra-cabeças anteriores e uma variedade fonte de informações que incluem dicionários e bancos de dados on-line, como uma lista de filmes e dos atores que participam deles. Por exemplo, ele descobre que a pista “Nice Story” pode ser resolvido por “ETAGE”, porque seu banco de dados inclui o par pista/solução ”Story in France/ETAGE” e porque reconhece que os padrões “Nice X” e “X in France” com freqüência tem mesma solução. O programa não sabe que Nice é uma cidade da França, mas consegue resolver o quebra-cabeça. * Chinook foi declarado o campeão Homem-Máquina em Damas em 1994.
  • Lógica incerta, uma técnica para raciocinar dentro de incertezas, tem sido amplamento usada em sistemas de controles industriais.
  • Sistemas especialistas vêm sendo usados a uma certa escala industrial. Os sistemas especialistas foram um dos primeiros sucessos da IA, com o software Mycin. Os principais componentes de um Sistema especialista são uma base de conhecimento alimentada por um especialista, uma máquina de inferência e uma memória de trabalho. Sistemas especialistas em uso como o XCON/R1 da Digital Equipment Coporation sabem hoje muito mais do que um especialista humano em como configurar os seus sistemas de computação.
  • Sistemas Tutoriais Inteligentes vem sendo usados para o aprendizado. Uma característica distintiva desta técnica é o modelo do estudante. * Sistemas tradutores, tais como SYSTRAN, têm sido largamente usados (no entanto, os resultados não são ainda comparáveis com tradutores humanos).
  • Redes Neurais vêm sendo usadas em uma larga variedade de tarefas, de Sistema de detecção de intrusos a jogos de computadores.
  • Sistemas de reconhecimento óptico de caracteres (OCR) podem traduzir letra escrita de forma arbitrária em texto.
  • Reconhecimento de escrita a mão é usada em muitos Assistentes Pessoais Digitais. Atualmente existe um sistema de comparação de escrita forense a mão chamado CEDAR-FOX. * Reconhecimento de voz está disponível comercialmente e é amplamente usado.
  • Sistemas de álgebra computacional, tais como Mathematica e Macsyma, são bons exemplos de aplicações de IA na solução de problemas algébricos.
  • Sistemas com Visão computacional são usados em muitas aplicações industriais.
  • Aplicações utilizando Vida Artificial são utilizados na indústria de entretenimento e no desenvolvimento da Computação Gráfica.
  • Sistemas baseados na ideia de agentes artificiais, denominados Sistemas Multiagentes, têm se tornado comuns para a resolução de problemas complexos.
  • Chatterbots (robôs de software para conversação), personagens virtuais que conversam em linguagem natural como se fossem humanos de verdade, são cada vez mais comuns na internet.
  • A visão da Inteligência Artificial substituindo julgamento humano profissional tem surgido muitas vezes na história do campo, em ficção científica e, hoje em dia, em algumas áreas especializadas onde "Sistemas Especialistas" são usados para melhorar ou para substituir julgamento profissional em engenharia e medicina, por exemplo.

Leia também:




Deixe seus comentários, compartilhe este artigo!


⬛◼◾▪ Social Media ▪◾◼⬛
• FACEBOOK • TWITTER • INSTAGRAM  • TUMBLR   GOOGLE+   LINKEDIN   PINTEREST


⬛◼◾▪ Blogs ▪◾◼⬛
• SFE®  • SFE Tech®  • SFE Terms®  • SFE Books®  • SFE Biography® 

⬛◼◾▪ CONTATO ▪

Inteligência Artificial - Machine Intelligence 3.0

Inteligência Artificial - Machine Intelligence 3.0



O estado atual da Machine Intelligence 3.0.(fonte: Imagem cortesia de Shivon Zilis e James Cham, desenhado por Heidi Skinner )

Quase um ano atrás, vi publicado um panorama geral das empresas que mantinham produtos de Machine Intelligence. O cenário de 2016 termina com um terço a mais de empresas do que havia a dois anos, o que o torna ainda mais útil. Este resumo é apenas um arranhão na superfície de toda a atividade existente voltada para o mercado que está lá fora. Conheça um pouco.

O hype em torno dos métodos de Machine Intelligence continuam a crescer. As palavras "aprendizagem profunda" - DL - Deep Learning - representam uma série de avanços significativos, mas também sensacionalistas como o Big Data




O sucesso no uso da Machine Intelligence em uma grande organização é surpreendentemente binário. É difícil fazer, mas, uma vez que a Machine Intelligence esteja ativada, uma organização verá tudo através da lente do seu potencial. Organizações como GoogleFacebookAppleMicrosoftAmazonUber e Bloomberg apostam fortemente no Machine Intelligence, mantendo suas capacidades permeando todos os seus produtos.


Diversas empresas estão lutando para descobrir o que fazer, e mantém placas em muitas salas de reuniões assim com ocorreu em 1997, só que naquela época as placas diziam "O que fazer com a Internet". Por isso é tão difícil para as empresas se envolverem. A Machine Intelligence é diferente do software tradicional. Ao contrário do Big Data, onde se pode comprar uma nova capacidade, a Machine Intelligence depende de profundas mudanças organizacionais nos processos. As empresas precisam decidir se confiarão nas análises e decisões pontuais oriundas da Machine Intelligence ou se vão incorporar seus modelos, muitas vezes inescrutáveis, em seus processos principais. As equipes precisam descobrir como testar essas capacidades recém-descobertas, e os aplicativos precisam mudar para que ofereçam mais do que um sistema de registro. Funcionários também precisam ser treinados a aprenderem a partir dos dados armazenados.

Ao contrário dos tradicionais softwares codificados o Machine Intelligence dá apenas saídas probabilísticas. Solicitando que se tome decisões subjetivas baseadas em informações imperfeitas. Como resultado, este novo software da Machine Intelligence cometerá erros, assim como nós, e precisaremos ser cuidadosos sobre quando confiar nele e quando não.

A ideia desta nova confiança é difícil e torna o Machine Intelligence mais difícil de ser adotado do que os softwares tradicionais. Um bom indicador para sabermos se uma empresa adotará essa tecnologia é sabermos se há algum executivos do C-Suite, com conhecimentos avançados de matemática. Tais executivos entendem que não estamos falando de magia, mas apenas de matemática.

Modelos de negócios Machine Intelligence serão diferentemente licenciados como software de assinatura. Ao contrário do software tradicional. Ainda não temos estruturas definidas pela gestão sobre onde implantar o Machine Intelligence

O perigo real de Machine Intelligence é como os executivos tomarão decisões ruins sobre o que suas capacidades de Machine Intelligence poderão construir.

Instâncias Inexploradas

Sem quaisquer surpresas, tem havido muitas aquisições de Machine Intelligence (Nervana pela IntelMagic Pony pelo TwitterTuri pela AppleMetamind pela SalesforceOtto pelo UberCruise pela GMSalesPredict pelo EbayViv pela Samsung). Muitas delas aconteceram muito cedo na vida das empresas e a um preço bastante elevado. Por quê ?



Empresas estabelecidas esforçam-se para entender a tecnologia de Machine Intelligence, mas o mercado de compradores que podem usar essa tecnologia como self-service ainda é pequeno. Então, quando entender como essa tecnologia poderá sobrecarregar sua organização, perceberá quão valiosa é e desejará armazená-la. Muitas dessas empresas estabelecidas dizem: "Esqueça a possibilidade de vender essa tecnologia para outros, vou comprar a coisa toda."

Esta ausência de um mercado atual, faz com que seja difícil o arranque inicial dos provedores de Machine Intelligence. Especialmente os horizontais que param de "crescer", como no efeito Peter Pan. Empresas que entram na trajetória de longo prazo poderão empacotar sua tecnologia como uma nova aplicação específica de problemas para a empresa ou simplesmente transformar-las num novo operador em seu mercado.

O futuro próximo

Todas as atividades só continuarão a acelerar. O mundo vai nos disponibilizar blocos comercialmente construídos de Machine Intelligence, haverá mais dados, haverá mais pessoas interessadas em aprender estes métodos, e sempre haverá problemas. Nós ainda precisamos de maneiras de explicar a diferença entre o Machine Intelligence e o software tradicional, e estamos trabalhando nisso. O valor do código é diferente dos dados, mas o valor do modelo do código melhora com base nesses dados?

Uma vez que entendamos a Machine Intelligence profundamente, poderemos olhar para trás na era do software tradicional e vermos que foi apenas um prólogo para o que está acontecendo agora. Estamos ansiosos para ver o que 2017 trará.




Leia também:



Deixe seus comentários, compartilhe este artigo!


⬛◼◾▪ Social Media ▪◾◼⬛
• FACEBOOK • TWITTER • INSTAGRAM  • TUMBLR   GOOGLE+   LINKEDIN   PINTEREST


⬛◼◾▪ Blogs ▪◾◼⬛
• SFE®  • SFE Tech®  • SFE Terms®  • SFE Books®  • SFE Biography® 

⬛◼◾▪ CONTATO ▪

Vitrine

Related Posts Plugin for WordPress, Blogger...