Alles, was auf Logik-Gattern fusst, ist digital.
Die Funktion solcher Gatter mit Wasser, Hebeln oder Murmeln oder Gleitern im Game of Life nachzubauen hat den großen Vorteil, dass bekannt ist, wie man aus einer einzigen Art von Gatter (NAND oder wahlweise NOR) alle anderen Gatter konstruieren kann und dann aus diesen Gattern alles andere, was man braucht, um einen Prozessor mit Register-Speicher, Rechen- und Steuerwerk aufzubauen. Ich habe das jedenfalls im Grundstudium gelernt. Zusammen mit Hauptspeicher und etwas zur Ein- und Ausgabe hat man dann einen Computer. Wenn ich also zeigen kann, dass ich ein funktionsfähiges Gatter bauen kann, steht auch fest, dass ich dann theoretisch einen Prozessor bauen kann.
Babbage hat meines Wissen zunächst eine funktionsfähige mechanische Rechenmaschine gebaut (ein Nachbau steht in London im Science Museum) und dann einen mechanischen Computer geplant. Aus Geldmangel konnte er ihn jedoch nicht bauen (lassen). Die Maschine hätte theoretisch funktioniert, allerdings hätten sich wohl die zig tausend Zahnräder festgefressen oder wären ob der hohen Belastung geplatzt und es steht zu befürchten, dass sie in der Praxis nicht funktioniert hätte.
Einen Computer würde ich als programmierbare universelle Rechenmaschine definieren. Rechenmaschine sollte klar sein. Das Ding kann rechnen, mindestens Zahlen addieren und subtrahieren und auf 0 prüfen. Universell bedeutet, dass sie alles berechnen kann, was berechenbar ist (es gibt Probleme, die sind es nicht). Das nennt man (zu Ehren von Alan Turing) auch turingmächtig. Programmierbar heißt, dass man die Rechenvorschrift ändern kann, ohne die Maschine grundlegend umzubauen. Die Rechenvorschrift wird in einer Folge von Maschinenbefehlen kodiert und dann schrittweise vom Prozessor abgearbeitet. Abhängig davon, ob diese im Datenspeicher abgelegt werden oder nicht, nennt man das eine Von Neumann Architektur (VNA) oder eine Harvard Architektur. Letztere hat sich nicht durchgesetzt.
Den ersten elektromechanischen digitalen Computer (der allerdings nicht turingmächtig war) hat Zuse 1941 mit der Z3 (ein Nachbau steht im Deutschen Museum in München) geschaffen. Flowers hat 1943 mit Colossus (ein Nachbau steht im Bletchley Park Museum of Computing) den ersten elektronischen (röhrenbasierten) digitalen Computer gebaut. Die Amerikaner haben nach einigen Experimenten mit analogen Computern (z.B. Mark I & II, usw.) dann 1946 mit ENIAC den ersten "echten" Computer (ab 1948 dann auch programmierbar) vorgestellt. Deren Erbauer waren ziemlich geschockt, als Mitte der 70er der bis dahin streng geheime Colossus bekannt wurde. Der deutschen Bastler wurde meist eh ignoriert.
Übrigens, die drei Gesetze der Robotik formulierte Asimov bereits 1941. Den Rechner MULTIVAC erfand er 1955.
Will man einen Computer in seiner Fantasywelt, ist IMHO de einfachste Ansatz, eine Vielzahl von NAND-Dämonen aus einer Logik-Dimension zu beschwören und sie dazu zu bringen, sich auf die gewünschte Weise an Armen und Schwänzen zu halten, auf das man gemäß der bekannten Theorie daraus einen Prozessor definieren kann. Wenn man dann weiß, dass es geht, ist es glaube ich recht einfach, sich alles weitere zu erschließen.
Die nächste Aufgabe ist dann, einen Maschinensprache zu entwickeln, die von dem Prozessor ausgeführt wird. Ich empfehle eine VNA. Ich denke, man kann relativ leicht den Stand einer 1965er PDP-8 (ein sehr beliebter 12-bit-Minicomputer) erreichen. Oder der Raytheon 704, einem 16-Bit Computer, auf dem Rick Loomis seit 1970 mit seiner Firma Flying Buffalo Postspiele durchgeführt hat. Mein Tipp wäre, ein Subset von Forth als Maschinensprache zu benutzen, einfach weil Moore damals geschafft hat, ein komplettes Betriebssystem für ein Radarteleskop (inklusive dem, was wir heutzutage eine Integrierte Entwicklungsumgebung nennen) in 2048 Bytes zu pressen. Ich würde 16-Bit-Speicherwörter benutzen (ja, ich habe darüber länger nachgedacht, als irgendwie sinnvoll wäre, aber irgendwann baue ich mir so eine CPU, die dann 15-Bit = 32768 Wörter adressieren können), und einen Hauptspeicher mit 32K, von denen ich gerne 1/4 für das Betriebssystem nutze, weil ich's nicht so effizient kann, wie Moore. Da Maschinencode sehr primitiv ist, würde zunächst einen Assembler schreiben, der eine Textform in Zahlen umsetzt, damit man das nicht selbst machen muss und danach eine Hochsprache entwerfen und ein Computerprogramm, um diese Hochsprache in Maschinensprache (oder Assembler) zu übersetzen, aber genau das kann bei Forth entfallen.
Hat man keine NAND-Dämonen zur Hand, würde ich Relais erfinden. Röhren würde ich mir nicht zutrauen und Transistoren oder integrierte Schaltkreise schon gar nicht. Aber für ein Relais braucht man nur Kupferdraht und einen Eisenkern und Federbleche. Die 6502 CPU (bekannt aus Apple, BBC Acorn, C64, ...) integriert ca. 3500 Transistoren. Natürlich würden 3500 Relais mehr Platz brauchen, sind aber gerade einmal 75% mehr als die Z3 hatte und daher durchaus machbar, behaupte ich mal. Bei den frühen Röhrencomputern musste man laufend die durchgebrannten Röhren auswechseln und auch noch durch Stromschläge gestorbene jetzt Kurzschüsse verursachende Insekten aus den heißen Schränken fummeln, die Computer also Debuggen. Relais entwickeln nicht so eine Wärme. Sind aber natürlich langsamer.
Hat man keine Elektrizität, sondern muss mechanisch vorgehen, gibt es hoffentlich Mitril oder ein anderes sehr widerstandsfähiges Metall, aus dem man magisch sehr präzise Zahnräder formen kann, damit es einem besser ergeht als Babagge. Wir hätten ihm gegenüber den Vorteil, dass wir von Boole und seiner Algebra wissen und wie man mit Wahrheitswerten rechnen kann. Das erlaubt einen moderneren Aufbau des Systems. Auch kennen wir die 2er-Komplement-Darstellung für Zahlen und versuchen nicht, mit binär kodierten Dezimalzahlen zu rechnen.
Mindestens genau so wichtig wie der Prozessor ist übrigens noch die Peripherie, also Eingabe und Ausgabegeräte. In unserer Welt gab es die Ideen von Lochkarten und Fernschreibern bereits. Kurze Zeit später hat man dann auch nach dem Krieg nicht mehr benötigte Radarbildschirme angeschlossen. Dennoch hat es bis 1972 und dem PARC Alto gedauert, bis ein moderner Bitmap-basierter Bildschirm erfunden wurde. Gleich nach einem sehr ähnlich arbeitenden Laserdrucker.
Im Deadlands-Setting gibt es übrigens (dank Ghostrock) Elektrizität und auch bereits Fernschreiber, wenn ich's richtig erinnere. Da einen Computer zu konstruieren ist absolut glaubwürdig. Das würde "unsere" Zeitlinie nur 50 Jahre oder so vorziehen.
Im jedem Steampunk-Setting, wo Dampfkraft auf "magische" Weise alles antreibt, was nicht bei drei auf den Bäumen ist, kann man denke ich auch Computer einführen, ohne das die Suspension of Disbelief Amok läuft. So ein Setting spielt ja auch meist in einem alternativen späten 19ten Jahrhundert.
Historisches viktorianisches England halte ich ebenfalls für glaubwürdig, wenn man einfach annimmt, dass einzelne Erfindungen sich stärker gegenseitig inspirieren als "in Wirklichkeit". Mit Leibniz und Boole waren die mathematischen Grundlagen gelegt, fähige Mathematiker gab es auch im 18. oder frühen 19. Jahrhundert und ein Turing oder Von Neumann hätte nur 100 Jahre früher leben müssen. Leibniz präsentiere übrigens 1690 bereits seine mechanische Rechenmaschine (interessanterweise nutzte sie keine Binärzahlen, obwohl er diese "erfunden" hat, sondern Dezimalzahlen) dem englischen König.
Typische Fantasywelten sind heutzutage so aufgeklärt, fortschrittlich und tolerant, dass Universitäten – weltlicher oder magischer Art – großartige technische Fortschritte machen könnten und es auch da – vorausgesetzt man hat die notwendigen Materialien – möglich sein sollte, dort Computer zu bauen. In den USA waren das MIT und Havard die Treiber. Man bräuchte halt einen Zweck.
In unserer Welt waren die Dinger praktisch, um den Kriegsgegner effektiver zu töten … oder im Falle von Colossus auszuspionieren. Danach haben sie dann Tabulier- und Bilanziermaschinen ersetzt, d.h. die Wirtschaft angekurbelt. Und natürlich geholfen, im beginnenden kalten Krieg den potentiellen Gegner effektiver zu töten … oder im Falle des Mondprogramms, ihn propagandistisch zu deplatzieren. Der 1963 entwickelte Apollo Guidance Computer war übrigens ein Wunderwerk seiner Zeit, ein absolut faszinierendes Gerät, das die mir erste bekannte CPU mit einem zweistufigen Maschinencode, wo die erste Stufe eine virtuelle Maschine für die zweite Stufe implementiert.
Wenn Computer z.B. helfen könnten, die Götter zu verstehen (ich denke da an die Gottlerner von Glorantha), sei es einfach, um sie effektiver zu verehrten oder selbst zum Gott zu werden (oder beides), würde wohl jeder Tempel einen haben wollen. Und dann auch jeder Haushalt einen Homecomputer für den Hausschrein (darauf dann auch Pong zu spielen muss sich ja nicht ausschließen). Oder wenn Magie auf komplexen Formeln besteht, die es zu ergründen gilt. Vielleicht muss man Shamanistisch-Hermetische-Anrufungen der 2. Ebene (kurz SHA-2) berechnen, bei denen möglichst viele Nullen am Anfang stehen. Vielleicht haben die Bewohner der Welt auch einfach den Verdacht, dass ihre Welt nur simuliert ist und wollen den Algorithmus knacken.
Schlußendlich, wenn man möchte, kann man immer auf den Antikythera-Apparat zeigen und sagen, seht, schon in der Antike war ein griechischer Mechanikus in der Lage eine komplexe Rechenmaschine zu bauen, warum also nicht auch einen Computer. Die Lochstreifen, auf denen die gesamte Konstruktionsvorschrift gespeichert war, sind leider beim Brand in Alexandria verloren gegangen. Hätten sie man mal auf die Traditionalisten gehört, die der Meinung waren, Keilabdrücke in Lehmtafeln sind das einzig wahre. Jedenfalls wissen wir durch sie, dass Mensch Ärgere Dich Nicht, ein mindestens 5000 Jahre altes Spiel ist.