Art. 07 – Vol. 21 – Nr. 2 – 2011

SEPARABILITATE LINIARĂ ÎN REŢELE NEURONALE ARTIFICIALE

Nicoleta Liviana Tudor
LTudor@upg-ploiesti.ro
Catedra de Informatică, Universitatea de Petrol şi Gaze din Ploieşti, România

Rezumat: Puterea şi utilitatea reţelelor artificiale neuronale au fost demonstrate în aplicaţii care includ probleme de diagnoză, medicină, finanţe, controlul roboţilor, procesarea semnalelor şi a imaginilor şi alte probleme de recunoaştere a formelor.

Un prim val de interes în reţele neuronale a apărut după introducerea neuronilor biologici de către McCulloch şi Pitts. Aceşti neuroni au fost prezentaţi ca modele de componente conceptuale pentru circuite care realizează anumite calcule. Rosenblatt a propus perceptronul, un model mai general decât unităţile de calcul McCulloch–Pitts. Ideea esenţială era introducerea ponderilor numerice şi a unui model special de interconectare. Perceptronul clasic este o reţea neuronală ce poate rezolva probleme de recunoaştere a formelor, putând reprezenta numai funcţii liniar separabile.

Acest articol prezintă câteva metode de testare a liniar-separabilităţii. Pentru crearea unui model de clasificare, pentru funcţii liniar separabile, se poate folosi o reţea neuronală cu un strat de perceptroni. Complexitatea liniar-separabilităţii punctelor din spaţiul de intrare este definită de rezolvarea unei probleme de optimizare liniară.

Cuvinte cheie: liniar separabilitate, reţele neuronale, perceptron, model de clasificare, optimizare liniară, spaţiu de intrare.

Introducere: Cercetările din domeniul Inteligenţei Artificiale au vizat dezvoltarea conceptului de calcul neuronal, un instrument folosit în generarea de sisteme cu inteligenţă artificială. Calculul neuronal încearcă să dezvolte sisteme instruibile pentru scopuri generale, folosind o cantitate mică de cunoştinţe iniţiale [3]. Astfel de sisteme se mai numesc reţele neuronale sau sisteme conexioniste [1].

McCulloch şi Pitts au pus bazele calculului neuronal, prin definirea modelului neuronului. Rosenblatt a propus un tip de reţea bazată pe perceptroni, obţinută prin interconectarea unei mulţimi de neuroni, definind astfel primul model de reţea neuronală artificială [2]. Conform teoriei lui Rosenblatt, perceptronul conţine cinci elemente de bază: un vector cu intrări, ponderile (conexiunile dintre neuroni), funcţia de însumare, dispozitivul de detecţie a pragului şi o ieşire. Reţelele neuronale cu mai multe straturi de perceptroni propuse de Rosenblatt, erau capabile sã rezolve probleme simple de clasificare, prin modificarea ponderilor conexiunilor dintre neuroni. Minsky şi Papert [6] au prezentat o serie de demonstraţii matematice şi utilizări ale perceptronului, dar şi limitările referitoare la calculul anumitor predicate sau la reprezentarea funcţiei booleene XOR.

Perceptronul propus de Rosenblatt este un model mai general decât unităţile de calcul McCulloch–Pitts [4]. Ideea esenţială constă în introducerea ponderilor numerice şi a unui model special de interconectare. Perceptronul clasic este o reţea neuronală folosită pentru soluţionarea problemelor de recunoaştere a formelor şi realizează decizii bazate pe liniar separabilitatea spaţiului de intrare. Deci perceptronul poate procesa numai funcţii liniar separabile.

Acest articol prezintă câteva metode de testare a liniar separabilităţii. O reţea neuronală cu un strat de perceptroni poate fi utilizată pentru crearea unui model de clasificare, în cazul folosirii unor funcţii liniar separabile. Lucrarea realizează un studiu de caz ce tratează problema clasificării într-o reţea de perceptroni, formalizată matematic ca o problemă de minimizare.

Reprezentarea funcţiilor booleene cu ajutorul perceptronului conduce după un număr finit de iteraţii la determinarea unui hiperplan de separare a mulţimii punctelor din spaţiul de intrare.

Separabilitatea liniară poate fi privită şi ca o problemă de optimizare liniară sau de programare liniară. Determinarea ponderilor în procesul de antrenare a perceptronului este echivalentă cu găsirea punctelor interne ale poligonului convex [9], delimitat în spaţiul ponderilor. Astfel, pentru ca un perceptron să fie antrenat să clasifice forme, trebuie rezolvată o problemă de punct interior, deoarece punctele interne reprezintă toate combinaţiile de ponderi posibile ale perceptronului.

Complexitatea liniar separabilităţii punctelor din spaţiul de intrare este definită de  rezolvarea unei probleme de optimizare liniară.

Vizualizează articolul complet

Concluzii: Acest articol prezintă detaliat conceptul de liniar separabilitate utilizat în reţele neuronale.

Pentru rezolvarea problemelor de clasificare, poate fi utilizată o reţea neuronală cu un strat de perceptroni, care permite determinarea unui hiperplan de separare a mulţimii punctelor din spaţiul de intrare.

Această lucrare evidenţiază faptul că separabilitatea liniară poate fi privită şi ca o problemă de optimizare liniară, deoarece determinarea ponderilor în procesul de antrenare a perceptronului este echivalentă cu găsirea punctelor interne ale poligonului convex, delimitat în spaţiul ponderilor. Este prezentat un studiu de caz ce trateazã problema clasificării într-o reţea de perceptroni, formalizată matematic ca o problemă de minimizare.

BIBLIOGRAFIE:

  1. ANDERSON, JAMES. Neural models with cognitive implications. In LaBerge & Samuels, Basic Processes in Reading Perception and Comprehension Models, Hillsdale, Erlbaum, 1977, pp. 27-90.
  2. DENNING, PETER. The science of computing: Neural networks. American Scientist, nr. 80, 1992, pp. 426-429.
  3. DUMITRESCU, HARITON COSTIN. Reţele neuronale. Teorie şi aplicaţii. Editura Teora, Bucureşti, 1996, 460 p.
  4. FELDMAN, BALLARD. Connectionist models and their properties. Cognitive Science, nr. 6, 1982, pp. 205-214.
  5. KRÖSE, BEN; PATRICK VAN DER SMAGT. An introduction to Neural Networks. University of Amsterdam, Netherlands, 1996, 135 p.
  6. MINSKY, MARVIN; SEYMOUR PAPERT. Perceptrons: An lntroduction to Computational Geometry. MIT Press, Cambridge, Mass., 1969.
  7. MOISE ADRIAN. Reţele neuronale pentru recunoaşterea formelor. Editura MATRIX ROM, Bucureşti, 2005, 309 p.
  8. NILSSON, NILS; MORGAN KAUFMANN. Learning Machines. San Mateo, CA, New Edition, 1990, pp. 37-42.
  9. ROJAS, RAÚL. Neural Networks A Systematic Introduction. Springer-Verlag, Berlin, 199
  10. SCHALKOFF, ROBERT. Pattern Recognition Statistical, Structural and Neural Approaches. John Wiley & Sons, New York, 1992.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.