1. Startseite
  2. »
  3. Allgemeine Themen & Trends
  4. »
  5. IT
  6. »
  7. Programmieren ist nicht gleich Informatik

Programmieren ist nicht gleich Informatik

Programmieren ist nicht gleich Informatik

Programmieren und Informatik: Zwei Begriffe, die oft vertauscht werden. Das kommt daher, dass das Feld der Informationstechnik eines der kompliziertesten der Berufswelt ist. Die relativ junge Disziplin stellt viele Menschen immer noch vor Rätsel und das, obwohl die Welt ohne ihre technischen Fortschritte nicht mehr auskommen würde.

Allgemein lässt sich sagen, dass Programmieren teil der Informatik ist, diese allerdings viele Themengebiete umfasst, von denen das Programmieren nur eines dieser Teilgebiete ist. Wer also ein Informatik Studium oder IT Studium absolvieren will, wird auch programmieren lernen.
  • Die Informatik beschäftigt sich mit der Darstellung, Speicherung, Verarbeitung und Übertragung von Informationen mit der Hilfe von Computern
  • Die Programmierung hingegen ist ein Teilgebiet der Softwareentwicklung. Hier wird ein Programm von einem Entwickler geschrieben, sodass dieses auf einem Computer einsetzbar ist.

Doch es gibt noch viele weitere, tiefgreifende Unterschiede zwischen den beiden Begriffen und gerade, wenn es darum geht, sich für einen Job zu entscheiden, müssen alle diese Unterschiede aufgezeigt werden.

Die Informatik

Geschichte

Der Begriff setzt sich aus den beiden Wörtern Mathematik und Informationen zusammen und kann als eine der Naturwissenschaften gesehen werden. Die Disziplin wurde sowohl aus mathematischen Berufen, als auch aus dem Ingenieurwesen entwickelt, da die genauen Berechnungen von Computern immense Vorteile darstellten.

Erste Ursprünge lassen sich bereits im Mittelalter finden. Bereits damals wurden Geräte entwickelt, um mathematische Probleme systematisch lösen zu können. Der Rechenschieber ist ein analoges Beispiel für einen Computer, mit dem erste primitive Operationen durchgeführt werden konnten. Andere sehen bereits den Algorithmus des Euklid im antiken Griechenland, als den Urahn der Informatik. Hier wurde eine Gleichung aufgestellt, um den kleinstmöglichen, gemeinsamen Teiler zu finden.

Bis heute wird dieser Algorithmus als eine der ersten Aufgaben in vielen Informatik-Studiengängen behandelt. Der Wissenschaftler Konrad Zuse entwickelte dann in der Mitte der 20. Jahrhunderts die erste Maschine Z3 , die als Digitalrechner bezeichnet werden kann. Damit ist gemeint, dass Zahlen- und Operationsdarstellung diskret und binär stattfinden. Die normale Darstellung, an die Menschen gewohnt sind, findet analog und im Dezimalsystem statt.

Durch große Vorstöße in der zweiten Hälfte des 20. Jahrhunderts in den Feldern der Transistortechnik und der Mikroprozessortechnik, wurde es ermöglicht, Computer immer handlicher, leistungsstärker und billiger zu machen. Der erste wirklich massentaugliche Computer wurde 1982 von der Firma Commodore veröffentlicht.

Auch die Entwicklung von Programmiersprachen machte die Informatik zu dem, wie wir sie heute kennen. Diese dienen sozusagen als Schnittstelle zwischen dem Menschen und dem Computer und übersetzen die menschlichen Befehle für den Computer in verständliche Signale. Dazu später beim Programmieren mehr.

Heute lässt sich die Wissenschaft in den theoretischen, praktischen und technischen Bereich aufteilen.

Theoretisch

Dieses Teilgebiet behandelt die mathematischen und abstrakten Hintergründe der Wissenschaft. Stochastik, formale Sprachen und Komplexitätstheorien stellen hier die größten Felder dar.
Die Stochastik befasst sich mit den Fragen der Berechenbarkeit und Wahrscheinlichkeit. Hier geht es darum, festzustellen, welche Aufgaben von Computern lösbar sind.

Als Turing-vollständig wird ein Rechnermodell bezeichnet, wenn mit diesem andere Rechnermodelle vollständig bearbeitbar sind. Das heißt, es besteht die Möglichkeit, selbst Änderungen am Algorithmus vorzunehmen. Das wird hier mit mathematischen Formeln bewiesen, wodurch wiederum bewiesen wird, dass das gesamte System der Informatik funktioniert und eine mathematische und logische Grundlage hat.

Formale Sprachen werden dafür benutzt, um dem Rechner Befehle verständlich zu machen. Dazu wird mit Hilfe von mathematischen Formeln ein Katalog von Anweisungen gebildet, die der Computer verstehen kann. So wird die Kommunikation möglich.

Die Komplexitätstheorie beschäftigt sich mit dem Ressourcenverbrauch der Algorithmen.
Da Computer eine beschränkte Rechenleistung haben, ist es wichtig zu wissen, welche Komplexität die Anweisungen besitzen dürfen, um weiterhin vom Rechner bearbeitbar zu sein. In diesem Feld gibt es passende Formeln, um diese Grenzen zu finden.

Praktisch

Im praktischen Teil kommen wir der Programmierung am nächsten. In diesem Gebiet werden Lösungen für reale Probleme gesucht. Softwareentwicklung oder Datenbankverwaltung lassen sich hier finden. Auch Algorithmen von Suchmaschinen oder Sortiermaschinen fallen in diesen Bereich, da diese unser alltägliches Leben einfacher machen. Die Entwicklung von Programmiersprachen oder Dateisystemen ist ebenfalls ein zentraler Bestandteil.

Technisch

Hier geht es um die technischen Hintergründe der Disziplin. Durch Mikroprozessoren können komplexe Schaltkreise im Nanometerbereich gebaut werden, was für komplexere und kompaktere Systeme hilfreich ist. Mikroprozessoren sind auch sehr exakt und fehlerfrei, was für den Betrieb von Rechnern unerlässlich ist. Die Rechnerarchitektur beschäftigt sich mit dem Zusammenspiel der einzelnen Komponenten.
In modernen Rechnern werden zum Betrieb ein Prozessor, eine Festplatte, eine Grafikkarte und viele weitere Geräte benötigt. Diese müssen auf einander abgestimmt sein, um einen reibungslosen Ablauf zu garantieren.

Programmieren

Das Programmieren ist ein Teil der Softwareentwicklung und befasst sich mit der Erstellung von Computerprogrammen. Die Möglichkeit, Software zu programmieren, wird erst durch Programmiersprachen geboten. Dazu werden die Algorithmen und Befehle, die der Programmierende dem Programm übergeben will, entsprechend formuliert, sodass der Computer den Code kompilieren und lesen kann. Im Anschluss führt er die Befehle dann aus

Genau wie „echte“ Sprachen, besitzen die Programmiersprachen auch eine Syntax, die beachtet werden muss. Damit Softwares programmieren werden können, muss diese Sprache erlernt werden. Wenn man vorhat, ein IT oder Informatik Studium zu absolvieren, ist dies meist mit inbegriffen. Eine andere Möglichkeit ist das selbstständig Erlernen der Programmier-Sprache.

Wer gute Programme schreiben will, sollte auf den Programmierstil achten. Trotz persönlicher Note, sollten Programmierer immer darauf achten, übersichtlich zu schreiben und die Konventionen der Sprache einzuhalten.

Ein weiterer wichtiger Punkt ist die Verständlichkeit. Der geschriebene Code ist meist nicht final. Durch Updates oder neue Anforderungen wird ein Programm oft verändert. Optimalerweise werden beim ersten Programmieren Hinweise und Kommentare hinterlassen, die den Code zu erklären. Softwares sind für Außenstehende oft schwer zu verstehen, weshalb gute Kommentare sehr hilfreich sind und viele Programmiersprachen bieten Features, die extra hierfür gemacht sind.

Auf der Wartbarkeit der Software sollte ebenfalls ein Augenmerk liegen. Bei der ersten Programmierung muss sichergestellt werden, dass die Software gut gewartet werden kann. Sauber getrennte Abschnitte und eine übersichtliche Codierung sind hier gewünscht.

Programmieren ist also dafür da, mit neuen Programmen das Arbeiten an Rechnern leichter zu machen. Jede Aufgabe, die der Rechner anstatt des Menschen selbst verrichten kann, sollte dieser auch durch ein entsprechendes Programm verrichten können.

Fazit

Der Unterschied zwischen Programmieren und Informatik liegt also vor allem in der Breite der Gebiete. Während die Informatik die technischen, theoretischen und praktischen Aspekte abdeckt, findet die Programmierung rein im praktischen Bereich statt. Ein Informatik Studium wird alle drei Aspekte behandeln und so wird es währenddessen auch möglich sein, programmieren zu lernen.

Software programmieren erfordert keine Kenntnisse über die theoretischen und technischen Aspekte der Informatik, diese sind jedoch trotzdem hilfreich. So könnte man vorzeitig erkennen, falls ein Programm zu komplex für den Rechner wird und es anpassen, während man ohne dieses Wissen eventuell sehr unangepasste Programme schreiben würde.

Abschließend kann der Unterschied zwischen Programmieren und Informatik mit einem Anleger auf dem Aktienmarkt verglichen werden. Wenn der Anleger nur weiß, wie er das Geld anlegen kann, aber hat keine Ahnung , wie der Markt funktioniert, wird dieser sein Geld schnell verlieren. Hat sich der Anleger jedoch über die Kurse und die einzelnen Firmen, sowie das System der Börse informiert, steigen seine Chancen, einen Gewinn zu erzielen, enorm.

 

Ähnliche Beiträge

Die mobile Version verlassen