Vad är Von Neumanns datorarkitektur?

Neumanns arkitekturen är en där en enda minnesplats (minnesadress) kan användas för antingen lagra data eller program och inte both.for exempel om platser från 8000 till 8050 används för att lagra ett program sedan indata och utdata kan inte vara på platser från 8000 till 8050.Normally mikroprocessorer följa neumann arkitektur
Havard arkitektur normalt följt av mikrokontroller, kommer det finnas separata data och program minne. Båda kan ha samma adress, så som om programmet är från 8000 till 8050 i programmet minne lokaliseringsuppgifter kan lagras på platser från 8000 till 8050 i data minne dvs samma adress kan användas för data och program.

Ytterligare Information:
John von Neumann var Ungrare-Amerikan mathematician och universalgeni som uppfann EDSAC... världen första lagras-programmet datorn att bedriva reguljär computing... med lokala minnet.
Med det sagt... "Von Neumanns dator arkitektur" är den övergripande termen för en typ av funktionalitet... lagras-programmet datorer en regelbunden computing service använder lokala minnet.
Von Neumann arkitektur är en lagrade programmet arkitektur med ingen differentiering mellan data och instruktion minne (båda är bosatta på ett enda chip)
Begreppet ingen differentiering mellan data och instruktion minne är korrekt, men är på ett chip och har ingenting med det att göra. De flesta dator minnen kräver idag flera marker. Tillbaka när von Neumann gjorde sitt arbete integrerad krets chips hade inte ens varit uppfann, än mindre för lagring - som inte kom fram till 1970-talet.
Också, von Neumann inte "uppfinna" EDSAC. Vissa av hans idéer inspirerade det, men dess chefsdesigner var Maurice Wilkes.

En viktig aspekt av en von Neumann maskin är att man genomför en Turing-komplett Finite State maskin - d.v.s. maskinen följer ett program i ett antal diskreta steg, slutar i ett särskilt tillstånd efter varje steg.

Se Wikipedia-artikel om detta ämne för mer specifika von Neumann maskin (länk längst ned i denna artikel).

Von Neumann föreslogs arkitekturen för de datorer som vi använder idag - konstant cykel runt och tillgång till minne på resa runt loopen. När vi trycker på en nyckel etc avbryter vi loopen. 8086 datorer, etc., används alla denna teknik. Eftersom tekniken har utvecklats att har vi hittat sätt att lagra instruktioner - rörledningar, lagra minne, etc., för snabb åtkomst i cache, men den grundläggande principen om cykling runt resterna. Detta gör en missvisande av en PC att kunna göra flera saker samtidigt. Ingen dator kan flera saker samtidigt; de alla tid-slice och ta korta tidsintervaller.

Den moderna PC är lite som en gammal motor bil. Du lägga till saker i det, du kan ge den större hjul, sätta blanka bitar på det men i slutet av dagen dess fortfarande en gammal motor bil.

När Von Neumann får gå till sängs så kommer alla datorprogram har vi kör idag.

Turing (tidigare i svaret) och Babbage gjorde lägga till maskiner.