Machinaal leren
Definitie
...
Alias:
- Machine learning
Machinaal leren
Automatisch leren of machinaal leren is een breed onderzoeksveld binnen kunstmatige intelligentie, dat zich bezighoudt met de ontwikkeling van algoritmes en technieken waarmee computers kunnen leren.
De methodes zijn te verdelen in twee ruwe categorieën: aanleidinggevend en deductief. Aanleidinggevende methodes creëren computerprogramma's door het vormen van regels of het extraheren van patronen uit data. Deductieve methoden hebben als resultaat een functie die net zo generiek is als de invoerdata.
Automatisch leren is sterk gerelateerd aan statistiek, aangezien beide velden de studie van data analyseren. Automatisch leren is meer gericht op de algoritmische complexiteit of de implementatie in programma's. Het is ook gerelateerd aan datamining, waarin op een geautomatiseerde manier patronen en relaties worden gezocht in grote hoeveelheden gegevens.
Bron: https://nl.wikipedia.org/wiki/Machinaal_leren
What is machine learning?
Machine learning is a subfield of artificial intelligence, which is broadly defined as the capability of a machine to imitate intelligent human behavior. Artificial intelligence systems are used to perform complex tasks in a way that is similar to how humans solve problems.
The goal of AI is to create computer models that exhibit “intelligent behaviors” like humans, according to Boris Katz, a principal research scientist and head of the InfoLab Group at CSAIL. This means machines that can recognize a visual scene, understand a text written in natural language, or perform an action in the physical world.
Machine learning is one way to use AI. It was defined in the 1950s by AI pioneer Arthur Samuel as “the field of study that gives computers the ability to learn without explicitly being programmed.”
Bron: Machine learning, explained - Sara Brown
Wat is Machine Learning of Machinaal Leren?
Machine Learning is een wetenschappelijk onderzoeksveld dat zich bevind in de kunstmatige intelligentie. Machine Learning is onder andere gericht op het ontwikkelen van algoritmes. Met deze algoritmes kunnen computers patronen ontdekken in grote databestanden (zogenaamde Big Data). Door het ontdekken van deze patronen kunnen computers of machines zichzelf ontwikkelen en dus leren. Computers leren nieuwe patronen ontdekken wanneer weer nieuwe gegevens worden toegevoegd aan de database. Voor mensen is het vaak onmogelijk om enorme hoeveelheden data te verwerken, computers doen dit veel sneller en maken daarbij steeds minder fouten. Daarom is Machine Learning interessant. Machine Learning is gerelateerd aan data mining, hierbij worden op een geautomatiseerde manier patronen, verbanden en relaties gezocht in grote hoeveelheden data.
Methoden voor Machine Learning
De methodes die gebruikt worden voor Machine Learning kunnen grofweg in twee grote categorieën worden ingedeeld:
- Aanleidinggevend. De aanleidinggevende mehodes vormen computerprogramma’s door het maken van regels of het extraheren van patronen uit data.
- Deductief. Bij een deductieve methode is het resultaat een functie net zo generiek is als de invoerdata.
Bron: Wat is Machine Learning of Machinaal Leren?, P. Geertsma
Wat is machinaal leren? Een definitie
Machinaal leren is een toepassing van kunstmatige intelligentie (AI) die systemen de mogelijkheid biedt om automatisch te leren en te verbeteren van de ervaring zonder expliciet geprogrammeerd te zijn. Machine learning richt zich op de ontwikkeling van computerprogramma’s die toegang hebben tot gegevens en deze zelf kunnen gebruiken om te leren.
Bron: https://datascience.eu/nl/machine-learning/wat-is-machinaal-leren-een-definitie/
Binnen het onderzoeksveld van gerichte AI heb je twee grote stromingen: semantiek (semantics) en machinaal leren (machine learning). De top-down benadering van het semantische web veronderstelt dat je voor een specifiek probleem samenzit met een domeinexpert en dat probleem samen zo goed mogelijk op voorhand probeert te beschrijven in entiteiten, relaties en bijhorende regels door middel van ontologiën. Eens die ontologiën voor die specifieke problemen opgesteld zijn, kunnen ze zelfs met elkaar gelinkt worden via hun gemeenschappelijke concepten. Een specifiek web-winkel probleem (er zal wel ergens een fysiek adres van koper of verkoper gemodelleerd zijn) kan aldus automatisch gelinkt worden aan een specifiek vrachtwagen-routeringsprobleem (er zal wel ergens een laadadres en losadres gemoddelleerd zijn). Ze gebruiken immers (ongeveer) hetzelfde concept "adres", waardoor die twee oplossingsdatasets automatisch met elkaar gelinkt kunnen worden via het concept "adres" dat ze dus delen. Eens al die ontologiën geraadpleegd kunnen worden door semantische agenten op het web, kunnen die agenten zelf nieuwe kennis genereren door middel van deductie. Ergens is het concept "gezin" gemodelleerd met relaties 'A is gehuwd met B" en "C is dochter van A", dan weet de software-agent door deductie automatisch dat "B is (plus)ouder van C". Semantische Al werkt dus onmiddellijk en zonder veel extra data, gegeven dat het probleemdomein op voorhand zo goed mogelijk is gemodelleerd. Al deze semantische AI-kennis wordt bijgehouden in kennisgrafen (knowledge graphs), waarvan het gekendste voorbeeld door iedereen gezien kan worden in elke zoekmachine. Waar je vroeger enkel een lijst met webadressen terugkreeg die van boven naar onder minder relevant werden, zie je nu aan de rechterkant een extra kadertje met relevante informatie die onmiddellijk door software-agenten kan geïnterpreteerd worden. Als daar een mobiel nummer bij staat, dan weet die software-agent dat er een sms kan naar gestuurd worden of eventueel rechtstreeks kan naar gebeld worden via een chatbot. Het is dus veel meer dan een reeks niet betekenisvolle nummertjes. De software-agent is "slim" genoeg om er in zijn niche probleem iets betekenisvol mee te doen en dus een (deel)oplossing aan te bieden.
Aan de andere kant van het spectrum hebben we het machinaal leren dat bottom-up in heel veel data patronen gaat proberen herkennen om aldus dichter bij een oplossing
van een specifiek probleem te kunnen komen. Let wel, als we bijvoorbeeld een machinaal lerend algoritme hebben dat kan zeggen of er een "kat" dan wel een "hond" op een foto staat afgebeeld, dan kan dat algoritme dan ook maar dat zeggen. Het antwoordt met het woord "kat" of "hond" zonder enig idee te hebben wat het concept "kat" of "hond" inhoudt. Indien we dit vanuit semantisch oogpunt zouden bekijken, dan zou een semantisch algoritme wel weten wat een "kat" is — namelijk een kat spint, heeft snorharen en haat een hond — en zou er dus ook gegeven de specifieke probleemstelling navenant beter deductief kunnen op inspelen. Laat ons nu eens verder kijken welke vlag bij machinaal leren welke lading dekt. Machinaal leren behelst immers reeds honderden verschillende algoritmes en het kiezen van het juiste algoritme of de combinatie van algoritmes voor het uitvoeren van een bepaalde taak is een constante uitdaging voor elke AI-onderzoeker. Op het ogenblik van schrijven (2.02.0) kunnen we een 6-tal families algoritmes machinaal leren onderscheiden die elk een bepaald soort probleem het best kunnen oplossen:
- gecontroleerd leren (supervised learning);
- ongecontroleerd leren (unsupervised learning);
- overdragend leren (transfer learning);
- versterkend leren (reinforcement learning);
- diep neuraal netwerk (deep neural network);
- generatief conflicterend netwerk (generative adversarial network).
Bron: Artificiële intelligentie en maatschappij - Jan De Bruyne & Nicolas Bouteca (Red.)
Machine learning is programming computers to optimize a performance criterion using example data or past experience. We need learning in cases where we cannot directly write a computer program to solve a given problem, but need example data or experience. One case where learning is necessary is when human expertise does not exist, or when humans are unable to explain their expertise. Consider the recognition of spoken speech, that is, converting the acoustic speech signal to an ASCII text; we can do this task seemingly without any difficulty, but we are unable to explain how we do it. Different people utter the same word differently due to differences in age, gender, or accent. In machine learning, the approach is to collect a large collection of sample utterances from different people and learn to map these to words. Another case is when the problem to be solved changes in time, or depends on the particular environment. We would like to have general-purpose systems that can adapt to their circumstances, rather than ex-plicitly writing a different program for each special circumstance. Consider routing packets over a computer network. The path maximizing the quality of service from a source to destination changes continuously as the network traffic changes. A learning muting program is able to adapt to the best path by monitoring the network traffic. Another example is an intelligent user interface that can adapt to the biometrics of its user, namely, his or her accent, handwriting, working habits, and so forth. Already, there are many successful applications of machine learning in various domains: There are commercially available systems for rec-ognizing speech and handwriting. Retail companies analyze their past sales data to learn their customers' behavior to improve customer rela-tionship management. Financial institutions analyze past transactions.
(...)
Machine learning is programming computers to optimize a performance criterion using example data or past experience. We have a model defined up to some parameters, and learning is the execution of a computer pro-gram to optimize the parameters of the model using the training data or past experience. The model may be predictive to make predictions in the future, or descriptive to gain knowledge from data, or both. Machine learning uses the theory of statistics in building mathematical models, because the core task is making inference from a sample. The role of computer science is twofold: First, in training, we need efficient algorithms to solve the optimization problem, as well as to store and pro-cess the massive amount of data we generally have. Second, once a model is learned, its representation and algorithmic solution for inference needs to be efficient as well. In certain applications, the efficiency of the learn-ing or inference algorithm, namely, its space and time complexity, may be as important as its predictive accuracy.
Bron: Introduction to Machine Learning, Ethem Alpaydin