Publikation: A Component Architecture for Artificial Neural Network Systems
Dateien
Datum
Autor:innen
Herausgeber:innen
ISSN der Zeitschrift
Electronic ISSN
ISBN
Bibliografische Daten
Verlag
Schriftenreihe
Auflagebezeichnung
URI (zitierfähiger Link)
Internationale Patentnummer
Link zur Lizenz
Angaben zur Forschungsförderung
Projekt
Open Access-Veröffentlichung
Core Facility der Universität Konstanz
Titel in einer weiteren Sprache
Publikationstyp
Publikationsstatus
Erschienen in
Zusammenfassung
Die Arbeit stellt zuerst die Architekturbausteine eines Komponentenframeworks dar, das im Rahmen der Dissertation implementiert wurde und die Wiederverwendung der
Kernteile von Modellen für künstliche neuronale Netze (artificial neural networks, ANN)
erlaubt. Obwohl es eine Reihe von verschiedenen ANN-Modellen gibt, wurde ein
wesentlicher Aspekt bisher kaum untersucht: die Bereitstellung wiederverwendbarer Komponenten, die eine effiziente Implementierung entsprechender Systemarchitekturen für diese Domäne ermöglichen. Das Komponentenframework wird mit bestehenden Implementierungsansätzen für ANN-Modelle und -Simulationen verglichen. Bei der Anwendung von ANN gibt es Schwierigkeiten, wie zum Beispiel Begrenzungen von Hardwareressourcen und passende Softwarelösungen. Die Tatsache, wie sich die ANN-Komponenten die Parallelisierung von vernetzten Computern zunutze machen, stellt einen Beitrag zum Stand der Technik im mobilen Code und in verteilten Systemen dar. Die Software-Architektur wurde so definiert, dass sie die Parallelisierung sowohl der internen Ausführung eines ANNs wie auch der Simulation von unterschiedlichen ANNs, simultan auf derselben Maschine oder auf unterschiedlichen Maschinen verteilt, erleichtert. Das kombinatorische Netzmodell (CNM) wurde dabei als Fallstudie für die Implementierung von Parallelität auf der Ebene der ANN-Struktur gewählt. Die durchgeführte Verbesserung eines der ANN-Modelle, nämlich des CNM, stellt einen Beitrag zum Bereich der ANNs selbst und zum Data-Mining dar. Der ursprüngliche CNM-Algorithmus konnte erheblich verbessert werden hinsichtlich der Optimierung des Suchraumes, das heißt höhere Ausführungsgeschwindigkeit und weniger Speicherverbrauch. Das letzte Kapitel bietet einen Überblick über offene Forschungsfragen, die während der Dissertation aufgetaucht sind.
Zusammenfassung in einer weiteren Sprache
The main focus of the PhD thesis is about automating the implementation of artificial neural networks (ANNS) models by applying object/ and component technology. Though various ANN models exist, the aspect of how to provide reusable components in that domain for efficiently implementing adequate system architectures has been barely investigated. The prototypical component framework that was designed and implemented in the realm of the dissertation is compared to existing approaches for generically implementing ANN models and simulations.
The application of ANNs faces difficulties such as limits of hardware resources and appropriate software solutions. How the ANN components harness parallelization on networked computers represents a contribution to the state-of-the-art in mobile code and distributed systems. The software architecture was defined in a way to facilitate the automated parallelization at the level of the inner execution of an ANN and at the level of the simulation of different ANNs at the same time, on one computing node or on different computing nodes in a distributed way. The Combinatorial Network Model (CNM) was chosen as case study for implementing parallelism at the level of the ANN structure.
The improvement of one of the ANN models, namely the CNM, represents a contribution to the area of ANNs itself and to data mining. The original CNM algorithm could be significantly enhanced regarding the aspect how it deals with the search space, which results in a faster execution and less memory allocation.
A sketch of research issues that result from the PhD work rounds out the thesis.
Fachgebiet (DDC)
Schlagwörter
Konferenz
Rezension
Zitieren
ISO 690
BECKENKAMP, Fábio Ghignatti, 2002. A Component Architecture for Artificial Neural Network Systems [Dissertation]. Konstanz: University of KonstanzBibTex
@phdthesis{Beckenkamp2002Compo-5813, year={2002}, title={A Component Architecture for Artificial Neural Network Systems}, author={Beckenkamp, Fábio Ghignatti}, address={Konstanz}, school={Universität Konstanz} }
RDF
<rdf:RDF xmlns:dcterms="http://purl.org/dc/terms/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:bibo="http://purl.org/ontology/bibo/" xmlns:dspace="http://digital-repositories.org/ontologies/dspace/0.1.0#" xmlns:foaf="http://xmlns.com/foaf/0.1/" xmlns:void="http://rdfs.org/ns/void#" xmlns:xsd="http://www.w3.org/2001/XMLSchema#" > <rdf:Description rdf:about="https://kops.uni-konstanz.de/server/rdf/resource/123456789/5813"> <void:sparqlEndpoint rdf:resource="http://localhost/fuseki/dspace/sparql"/> <dc:creator>Beckenkamp, Fábio Ghignatti</dc:creator> <dcterms:abstract xml:lang="deu">Die Arbeit stellt zuerst die Architekturbausteine eines Komponentenframeworks dar, das im Rahmen der Dissertation implementiert wurde und die Wiederverwendung der<br />Kernteile von Modellen für künstliche neuronale Netze (artificial neural networks, ANN)<br />erlaubt. Obwohl es eine Reihe von verschiedenen ANN-Modellen gibt, wurde ein<br />wesentlicher Aspekt bisher kaum untersucht: die Bereitstellung wiederverwendbarer Komponenten, die eine effiziente Implementierung entsprechender Systemarchitekturen für diese Domäne ermöglichen. Das Komponentenframework wird mit bestehenden Implementierungsansätzen für ANN-Modelle und -Simulationen verglichen. Bei der Anwendung von ANN gibt es Schwierigkeiten, wie zum Beispiel Begrenzungen von Hardwareressourcen und passende Softwarelösungen. Die Tatsache, wie sich die ANN-Komponenten die Parallelisierung von vernetzten Computern zunutze machen, stellt einen Beitrag zum Stand der Technik im mobilen Code und in verteilten Systemen dar. Die Software-Architektur wurde so definiert, dass sie die Parallelisierung sowohl der internen Ausführung eines ANNs wie auch der Simulation von unterschiedlichen ANNs, simultan auf derselben Maschine oder auf unterschiedlichen Maschinen verteilt, erleichtert. Das kombinatorische Netzmodell (CNM) wurde dabei als Fallstudie für die Implementierung von Parallelität auf der Ebene der ANN-Struktur gewählt. Die durchgeführte Verbesserung eines der ANN-Modelle, nämlich des CNM, stellt einen Beitrag zum Bereich der ANNs selbst und zum Data-Mining dar. Der ursprüngliche CNM-Algorithmus konnte erheblich verbessert werden hinsichtlich der Optimierung des Suchraumes, das heißt höhere Ausführungsgeschwindigkeit und weniger Speicherverbrauch. Das letzte Kapitel bietet einen Überblick über offene Forschungsfragen, die während der Dissertation aufgetaucht sind.</dcterms:abstract> <dcterms:available rdf:datatype="http://www.w3.org/2001/XMLSchema#dateTime">2011-03-24T16:00:17Z</dcterms:available> <dcterms:isPartOf rdf:resource="https://kops.uni-konstanz.de/server/rdf/resource/123456789/36"/> <dcterms:title>A Component Architecture for Artificial Neural Network Systems</dcterms:title> <dcterms:hasPart rdf:resource="https://kops.uni-konstanz.de/bitstream/123456789/5813/1/fabio.pdf"/> <dc:format>application/pdf</dc:format> <dcterms:issued>2002</dcterms:issued> <dc:language>eng</dc:language> <dcterms:alternative>Eine Komponentenarchitektur für künstliche neuronale Netzwerksysteme</dcterms:alternative> <dspace:isPartOfCollection rdf:resource="https://kops.uni-konstanz.de/server/rdf/resource/123456789/36"/> <bibo:uri rdf:resource="http://kops.uni-konstanz.de/handle/123456789/5813"/> <dc:date rdf:datatype="http://www.w3.org/2001/XMLSchema#dateTime">2011-03-24T16:00:17Z</dc:date> <foaf:homepage rdf:resource="http://localhost:8080/"/> <dcterms:rights rdf:resource="https://rightsstatements.org/page/InC/1.0/"/> <dspace:hasBitstream rdf:resource="https://kops.uni-konstanz.de/bitstream/123456789/5813/1/fabio.pdf"/> <dc:contributor>Beckenkamp, Fábio Ghignatti</dc:contributor> <dc:rights>terms-of-use</dc:rights> </rdf:Description> </rdf:RDF>