Gå til innhold

Intel før AMD på dobbelkjerne?


Anbefalte innlegg

Dette utdraget kan kanskje hjelpe å forstå forskjellene mellom "ekte" dobbelkjerne og det som ikke er det:

http://theinquirer.net/?article=22020

At IDF, it became very obvious: Smithfield XE was basically two Xeon DPs almost literally bolted together on one die. The standard Smithfield is the same, except HT is disabled, even with their separate bus interfaces, while the next round, Presler, is two separate CPU chips in one package.

 

So, in a way, neither of these is actually a dual-core CPU, like POWER5, Montecito or dual-core Opteron would be: Smithfield is a dual CPU chip, where two totally separate processors happen to share a single chip, and Presler is a dual-chip DCM (dual-chip module).

Uten integrert arbiter så er det altså ikke en ekte dobbelkjerne-prosessor, men heller 2 stk. helt seperate prosessorkjerner som bare befinner seg på samme brikke. Arbiteren er altså det som knytter sammen kjernene på en ekte dobbelkjerne-prosessor.

Dersom Intel sin nye prosessor er basert på 2 stk. Xeon DP, vil det da være mulig å kunne kjøre 2 x intel dualcore på et system, eller vil DP teknologien hindre det?

 

Det er jo bare IBM som har klart å dytte opptil 4 stk. Xeon DP i samme maskin i sine X440 og X445.

Lenke til kommentar
Videoannonse
Annonse
Dette utdraget kan kanskje hjelpe å forstå forskjellene mellom "ekte" dobbelkjerne og det som ikke er det:

http://theinquirer.net/?article=22020

At IDF, it became very obvious: Smithfield XE was basically two Xeon DPs almost literally bolted together on one die. The standard Smithfield is the same, except HT is disabled, even with their separate bus interfaces, while the next round, Presler, is two separate CPU chips in one package.

 

So, in a way, neither of these is actually a dual-core CPU, like POWER5, Montecito or dual-core Opteron would be: Smithfield is a dual CPU chip, where two totally separate processors happen to share a single chip, and Presler is a dual-chip DCM (dual-chip module).

Uten integrert arbiter så er det altså ikke en ekte dobbelkjerne-prosessor, men heller 2 stk. helt seperate prosessorkjerner som bare befinner seg på samme brikke. Arbiteren er altså det som knytter sammen kjernene på en ekte dobbelkjerne-prosessor.

Dersom Intel sin nye prosessor er basert på 2 stk. Xeon DP, vil det da være mulig å kunne kjøre 2 x intel dualcore på et system, eller vil DP teknologien hindre det?

Klart det dersom man har brikkesett som støtter det. "Smithfield" benytter sokkel 775, mens Xeon DP benytter sokkel 604. "Dobbelkjerne" Xeon kommer nok samtidig med ny sokkel/brikkesett regner jeg med, og er forventet iløpet av neste år.

 

Det er jo bare IBM som har klart å dytte opptil 4 stk. Xeon DP i samme maskin i sine X440 og X445.

Ja, men da benyttet de også et spesialdesignet brikkesett som IBM selv har utviklet. HP har forøvrig også klart å dytte 4 stk. dobbelkjerne Opteron i sin Proliant DL585:

http://www.internetnews.com/infra/article.php/3496561

AMD first demonstrated its x86 dual-core processor in August 2004, showing an HP ProLiant DL585 server powered by four dual-core Opteron chips.
Endret av snorreh
Lenke til kommentar
Jeg har aldri påstått at Xeon MP har arbiter på selve kjernen. Du skjønnte sikkert hva jeg mente likevel. (Opteron 8xx uten og Xeon MP med Arbiter i systemet for de som lurer)

 

Jeg skjønner fortsatt ikke hvorfor du mener arbiteren er noe "ekthetsbevis" på om en CPU har dobbeltkjerne eller ikke. "Dobbelt" = 2 derav dobbeltkjerne = 2 kjerner sammen. Det eneste navnet indikerer er at det er to kjerner samlet. Det ligger ingen føringer i navnet som sier at den må ha arbiter eller ikke, om den må ha integrert minnekontroller eller ikke, eller om den må ha HyperThreading eller ikke eller andre detaljer. Dermed synes jeg det blir for dumt å kalle Smithfiels for ikke ordentlig siden den mangler en av disse detaljene om strengt tatt ikke er en del av kjernelogikken en gang.

 

2 kjerner er altså like mye 2 kjerner uansett forskjeller i tilkoblingsmåten. (En arbiter er bare en sak som kobler sammen de to kjernene).

 

Jeg synes det er irrelevant om smithfield ligner 2x prescott eller ikke. "Det blir liksom alt for enkelt" har ingenting med diskusjonen å gjøre. "Det enkle er ofte det beste" er også et uttrykk selv om det gjenstår å se om det er gyldig i dette tilfellet.

Forøvrig helt enig med Simen1 her. Snorreh sine utsang blir bare helt latterlige. Smithfield er "Dual-Core" uansett hvordan du setter det. At dette er "paper launch" som noen sier, tror jeg ikke noe på.

Det her blir jo bare mer og mer saklig.

 

Er for øvrig enig med Snorreh.

Lenke til kommentar
  • 4 måneder senere...

Macworld har en interessant artikkel fra Hot Chips-konferansen om hvordan Pentium-D ble til:

 

Hot Chips: Intel's dual-core Pentium 4 a rush job

Intel Corp.’s first dual-core chip was a hastily concocted design that was rushed out the door in hopes of beating rival Advanced Micro Devices Inc. (AMD) to the punch, an Intel engineer told attendees at the Hot Chips conference Tuesday.

 

With the realization that its single-core processors had hit a wall, Intel engineers plunged headlong into designing the Smithfield dual-core chip in 2004 but faced numerous challenges in getting that chip to market, said Jonathan Douglas, a principal engineer in Intel’s Digital Enterprise Group, which makes chips for office desktops and servers.

 

“We faced many challenges from taking a design team focused on making the highest performing processors possible to one focused on multicore designs,” Douglas said in a presentation on Intel’s Pentium D 800 series desktop chips and the forthcoming Paxville server chip, both of which are based on the Smithfield core.

 

Intel was unable to design a new memory bus in time for the dual-core chip, so it kept the same bus structure used by older Pentium 4 chips, Douglas said at the conference at Stanford University in Palo Alto, California. This bus was capable of supporting two separate single-core processors, but it was not as nearly as efficient as the dual-independent buses that will appear on the Paxville processors or the integrated memory controller used on AMD’s chips. The memory bus or front-side bus on Intel’s chips is used to connect the processor to memory.

 

All of Intel’s testing tools and processes had been designed for single-core chips, Douglas said. This meant that the company had to quickly come up with a new testing methodology for dual-core chips that could measure the connections between both cores.

 

Also, a new package had to be designed for the Pentium D chips that could accommodate both cores. “We’re putting two cores in one package, it’s like trying to fit into the pair of pants you saved from college,” Douglas said.

 

Intel would have preferred to design a package that would put two pieces of silicon in a single package, like the design that will be used for a future desktop chip called Presler, but its packaging team simply didn’t have time to get that in place for Smithfield, Douglas said.

 

The company’s Pentium D processors consist of two Pentium 4 cores placed closely together on a single silicon die. That design creates some problems in that dual-core processors must have some logic that coordinates the actions of both cores, and those transistors have to go somewhere in an already small package, Douglas said. This caused signaling problems that needed to be overcome, he said.

 

Intel also had to design special thermal diodes into the chip that would closely monitor the heat given off by the combination of two fast processor cores, Douglas said.

 

In total, Intel completed the Smithfield processor core in nine months, Douglas said. By Intel’s standards, that is an extremely aggressive goal for a major processor design, said Kevin Krewell, editor in chief of The Microprocessor Report in San Jose, California.

 

“Most designs take years,” Krewell said. “But it was very important for them to get back in the game and have a road map.”

 

Intel began to put together the Smithfield project around the time it publicly announced plans in May 2004 to cancel two future single-core designs and concentrate on multicore chips. The company realized that wringing more clock speed out of its single-core designs would require a significant engineering effort to deal with the excessive heat given off by those chips.

 

At the time, AMD had already started work on a dual-core version of its Opteron server processor that it would demonstrate in September of that year. AMD unveiled its dual-core Opteron chip in April, a few days after Intel launched Smithfield. AMD has since released dual-core desktop chips.

 

One reason for the aggressive schedule set for Smithfield was the need to respond to AMD’s actions, Douglas said, without mentioning his company’s competitor by name. “We needed a competitive response. We were behind,” he said.

Lenke til kommentar

Vel det er så sykt morsomt at macworld begynner med pentium ting. Men som alle vet så er Pentium D SYKT varm, og sykt god i ytelse/ pris. Så det er jo ikke akkurat et sjokk at det er et haste proskjekt, hele data industrien er det. Pentium D er vel også bare et mellom ledd til Yohan tiden. Så det er nok ikke så dramatisk, at den ikke er bygget for at flere generasjoner skal kunne ta og bli basert på den.

 

1) Og små barn når det gjelder high end HW så vil så godt som alltid hw utgiftene være minimale i forhold til alle de andre utgiftene eks sofware. Så dont go there.

 

2) Varme utvikling er jo også en ting å diskutere. Men det kan jo som oftest løses, det er bra med lav varme utvikling men det kan løses relativt enkelt.

 

3) Hva som er dualcore og hva som ikke er dualcore har vi diskutert før og trenger ikke å diskutere det igjen.

 

4) Som sakt ingen som kan noe særlig vil påstå at P4 er bedre enn K8 arkitekuren. K8 er kraftigere/ nyere / produsere mindre varme/ +++++. Så det er ikke noe vi trenger å diskutere mener jeg.

Lenke til kommentar

hehe venta på at denne skulle bli gravd opp ja. Leste macworld artikkelen tidligere i dag og vurderte å starte stoppeklokka.

 

Litt morsomt at Intel egentlig ville levere smithfield som MCM i steden for dual core. Det hadde sikkert vært en bedre løsning pga produksjonskostnader. Forøvrig ingen overrskelse at Smithfield var hastverksarbeid. Det lå jo rimelig opp i lyse dagen.

 

PS det er dårlig copyright skikk å quote hele eller store deler av artikler!

Endret av Anders Jensen
Lenke til kommentar
Jeg har aldri påstått at Xeon MP har arbiter på selve kjernen. Du skjønnte sikkert hva jeg mente likevel. (Opteron 8xx uten og Xeon MP med Arbiter i systemet for de som lurer)

 

Jeg skjønner fortsatt ikke hvorfor du mener arbiteren er noe "ekthetsbevis" på om en CPU har dobbeltkjerne eller ikke. "Dobbelt" = 2 derav dobbeltkjerne = 2 kjerner sammen. Det eneste navnet indikerer er at det er to kjerner samlet. Det ligger ingen føringer i navnet som sier at den må ha arbiter eller ikke, om den må ha integrert minnekontroller eller ikke, eller om den må ha HyperThreading eller ikke eller andre detaljer. Dermed synes jeg det blir for dumt å kalle Smithfiels for ikke ordentlig siden den mangler en av disse detaljene om strengt tatt ikke er en del av kjernelogikken en gang.

 

2 kjerner er altså like mye 2 kjerner uansett forskjeller i tilkoblingsmåten. (En arbiter er bare en sak som kobler sammen de to kjernene).

 

Jeg synes det er irrelevant om smithfield ligner 2x prescott eller ikke. "Det blir liksom alt for enkelt" har ingenting med diskusjonen å gjøre. "Det enkle er ofte det beste" er også et uttrykk selv om det gjenstår å se om det er gyldig i dette tilfellet.

Forøvrig helt enig med Simen1 her. Snorreh sine utsang blir bare helt latterlige. Smithfield er "Dual-Core" uansett hvordan du setter det. At dette er "paper launch" som noen sier, tror jeg ikke noe på.

Wørd!

 

Hvor vanskelig kan dette egentlig være? Er "dual core" blitt et hypeord av så stor betydning at en må ned på FRP (Forrykt Retorikk Pjatt) nivå å diskutere om to kjerner på en die er "dual core"? Skulle tro det var noen "dysenlektriske" fanatikere her som tror det er snakk om duell cores...

 

;)

Lenke til kommentar
1) Og små barn når det gjelder high end HW så vil så godt som alltid hw utgiftene være minimale i forhold til alle de andre utgiftene eks sofware. Så dont go there.

 

2) Varme utvikling er jo også en ting å diskutere. Men det kan jo som oftest løses, det er bra med lav varme utvikling men det kan løses relativt enkelt.

Jeg er forsåvidt enig, men software koster jo ikke mer til AMD, er liksom ikke noe vits å kjøpe noe dyrere og varmere om man ikke må.

 

AtW

Lenke til kommentar
1) Og små barn når det gjelder high end HW så vil så godt som alltid hw utgiftene være minimale i forhold til alle de andre utgiftene eks sofware. Så dont go there.

 

2) Varme utvikling er jo også en ting å diskutere. Men det kan jo som oftest løses, det er bra med lav varme utvikling men det kan løses relativt enkelt.

Jeg er forsåvidt enig, men software koster jo ikke mer til AMD, er liksom ikke noe vits å kjøpe noe dyrere og varmere om man ikke må.

 

AtW

Selfølgelig, det er et negativ punkt når det gjelder intel, men det er ikke et så stort agrument som noen vil ha det til å bli. Eks så har jo intel konge hovedkort, og annet utstyr og bedrifter kjøper ikke cpuer men løsninger og der er intel konge.

Lenke til kommentar

Oppdaget denne tråden først nå, like godt antagelig.

 

Hvis noen er i tvil kan jeg bekrefte at hardware er en betydelig utgift, enten det dreier seg om små barn eller store bedrifter. At software er dyrt, er i denne sammenheng helt uinteressant.

 

Når det gjelder komplette løsninger er Intel langt fra konge, de er ikke-eksisterende. Når det gjelder brikkesett har Nvidia ettertrykkelig bevist at de er på linje med Intel. HP, IBM, Dell, Sun, SGI osv. leverer komplette løsninger. Om du er privat person eller bedrift så er det et fett om HP leverer AMD eller Intel med tanke på kompletthet, kvalitet, kompatibilitet eller whatever.

 

At Snorre har fått så hard motbør for sitt synspunkt irriterer meg fordi det hindrer totalt en diskusjon om hvilke konsekvenser dual-core vil ha i årene som kommer. Hvorvidt Intel sin D-serie er dualkjerne er meg revnende likegyldig, og kun et definisjonsspøsmål. Så vidt jeg har sett er det stort sett bare Snorre som har bidratt med interessant informasjon her.

 

Varme og effekt går hånd i hånd, og er ikke noe stort problem i stua, men i bedrifter som trenger mye datakraft begynner vi å snakke om en betydelig strømregning, og det er lite som tyder på at energi blir billig fremover. Husk at for bedrifter dreier det seg ofte om maskiner som står med full load døgnet rundt, bare ta 100Xeonx0,2kWx365dagerx24timer så skjønner dere fort tegningen. Hvis du attpåtil skal ha det i bladservere snakker vi om betydelige mengder varme på et lite rom.

 

Forøvrig burde vi etter min mening alle vært AMD fan (for det er vel egentlig Intel vs. AMD denne tråden har dreid seg om hele tiden?). Vi skylder alle AMD en stor takk for alt de har bidratt med både med hensyn på pris og akselerert utvikling på x86. At Dell bøyer seg for Intels monopolforsøk gjør meg kvalm, og det burde fått alle som er interessert i en positiv hardwarefremtid til å boikotte Dell. Så jeg synes ikke det er rart at Snorre flagger de synspunt han gjør, og det synes jeg han godt kan fortsette med.

Lenke til kommentar
At Snorre har fått så hard motbør for sitt synspunkt irriterer meg fordi det hindrer totalt en diskusjon om hvilke konsekvenser dual-core vil ha i årene som kommer. Hvorvidt Intel sin D-serie er dualkjerne er meg revnende likegyldig, og kun et definisjonsspøsmål. Så vidt jeg har sett er det stort sett bare Snorre som har bidratt med interessant informasjon her.

Mulig jeg misset noe her, men er det ikke fullt mulig å diskutere konsekvensene av dualcore (eller mer generelt: multicore) uten å drive kverrulering rundt definisjonen?

Lenke til kommentar

Det var jo i grunnen hovedpoenget mitt.

 

Når det gjelder Intels løsning er det vel bare spørsmål om tid før de kommer med x-bar (på chip) eller tilsvarende, og integrert minnekontroller, med dertil kjapp kommuniksasjon mellom kjernene. Det jeg synes er interessant er at dette sannsynligvis blir standardoppsett på desktop, arbeidsstasjoner, noder osv., også for IA64 vil jeg tro, i løpet av et par år. For de som har drevet litt med parallellisering og vet hvor krevende det kan være, og har kjennskap til hvor viktig kjapp kommunikasjon mellom kjernene er, er dette meget spennende tider. Men nå er jo dette et hardware forum så det blir kanskje off-topic.

Lenke til kommentar
Forøvrig burde vi etter min mening alle vært AMD fan (for det er vel egentlig Intel vs. AMD denne tråden har dreid seg om hele tiden?). Vi skylder alle AMD en stor takk for alt de har bidratt med både med hensyn på pris og akselerert utvikling på x86. At Dell bøyer seg for Intels monopolforsøk gjør meg kvalm, og det burde fått alle som er interessert i en positiv hardwarefremtid til å boikotte Dell.

 

Vel,det er atter øynene som ser,for den som går langt nok tilbake så vet en vel at AMD "oppstod" ved "hjelp" av Intel. Og hadde vi ikke hatt Intel hadde jo AMD vært den "store stygge ulven" og hvor ville vi vært da??

Her bør enhver med et snev av gangsyn i behold innse at vi trenger begge, ja helst enda flere.

Å oppfordre til boikott av Dell synest jeg også er helt bak mål, all den tid de driver forretning og velger det som de tjener best på, dette er vel noe de aller fleste forretningsdrivende gjør.

Stiller meg svært skeptisk til at om du hadde drevet forretning ikke først og fremst solgte det som gagnet deg selv best økonomisk og ga jevnt F i resten.

Lenke til kommentar
Varme og effekt går hånd i hånd, og er ikke noe stort problem i stua, men i bedrifter som trenger mye datakraft begynner vi å snakke om en betydelig strømregning, og det er lite som tyder på at energi blir billig fremover. Husk at for bedrifter dreier det seg ofte om maskiner som står med full load døgnet rundt, bare ta 100Xeonx0,2kWx365dagerx24timer så skjønner dere fort tegningen. Hvis du attpåtil skal ha det i bladservere snakker vi om betydelige mengder varme på et lite rom.

Jepp! Jeg synes anslaget ditt om 200W per CPU var litt lavt med tanke på at det skal gå med til å dekke varme fra spenningsregulatorer, minne, harddisker, tap i PSU'ene, et nettverk som kobler alt sammen og ikke minst: ganske mye kraft går med til AirCondition-anslegget for å fjerne varmen fra systemet. Hvis jeg skulel gjort et anslag så tror jeg at jeg hadde puttet inn 4-500W per CPU i regnestykket.

 

Forøvrig så vil jeg nyansere det med effektbruk litt: Hjemme hos folk her i norge så går effekten til PC'en bare med i det store oppvarmingsregnskapet til huset og koster dermed ikke særlig mye. Hjemme hos folk i varmere strøk går har de ikke noe oppvarmingsregnskap store deler av året så der går det bare med til å plage beboeren med mer varme i leiligheta. I bedrifter bruker de som regel AC og fyrer alt for kråka uavnehgig av om det er i spania eller norge og om det er -20 grader Celsius ute.

 

Bare for å forklare for de som ikke henger med i svingene her i tråden (altså ikke de faste skribentene i disse trådene) så er antall Watt i "strømforbruk" nøyaktig det samme antallet Watt varme som blir produsert. Strømforbruk og varme er altså bare to sider av samme mynt.

 

Stiller meg svært skeptisk til at om du hadde drevet forretning ikke først og fremst solgte det som gagnet deg selv best økonomisk og ga jevnt F i resten.

Akkurat det er både stryken og svakheten til økonomi generellt. Økonomi tar kun økonomiske hensyn, ikke menneskelige hensyn, ikke rettferdighetshensyn, ikke miljøhensyn osv. For at ikke økonomien skal ødelegge samfunnet helt så har vi blandt annet arbeidsmiljølover, miljølover, miljøavgifter, konkurranselover osv. Poenget med rammene er å hindre uheldige effekter som går ut over andre enn bedriften, og som går ut over samfunnet. Så det å drive butikk handler ikke bare om å tjene mest mulig penger, men om å tjene mest mulig innen de rammene samfunnet har satt. Altså ikke noe lyssky business. Men det er klart, ikke alle klarer å holde seg innenfor rammene. Noen slipper unna mens noen blir tatt. Nå sier jeg ikke dirkete at Dell driver med snusk i norge, for det har jeg ikke noen beviser på. Men det må være lov å ha litt sunn skeptis, særlig når den frie konkurransen ikke ser ut til å fungere skikkelig. (Noe som like egoistisk tenkt som bedrifters rent økonomiske tankegang går ut over våre egne lommebøker)

Endret av Simen1
Lenke til kommentar
Vel,det er atter øynene som ser,for den som går langt nok tilbake så vet en vel at AMD "oppstod" ved "hjelp" av Intel. Og hadde vi ikke hatt Intel hadde jo AMD vært den "store stygge ulven" og hvor ville vi vært da??

Joa, hvis Pelle var ei katt, men det er'n ikke.

Her bør enhver med et snev av gangsyn i behold innse at vi trenger begge, ja helst enda flere.

Helt enig!

Å oppfordre til boikott av Dell synest jeg også er helt bak mål, all den tid de driver forretning og velger det som de tjener best på, dette er vel noe de aller fleste forretningsdrivende gjør. Stiller meg svært skeptisk til at om du hadde drevet forretning ikke først og fremst solgte det som gagnet deg selv best økonomisk og ga jevnt F i resten.

Mulig jeg blingser litt så sent på kvelden, men alt untatt første bisetning er vel argumenter for boikott, hvis man ønsker fri konkurranse mellom Intel og AMD?

 

Forøvrig synes jeg det hadde vært mye mer interessant å diskutert konsekvensene av dualkjerne CPU'er på et litt mer detaljert plan, og kanskje synset litt om hva det betyr for meg og deg. Du har såvidt jeg har forstått gjort en imponerende overklokkingsjobb, og der har vi et punkt som bør være interessant. Siden du er interessert i overklokking er du antagelig ihvertfall litt interessert i spill, har du noen tanker om hvordan dualkjerne vil påvirke den arenaen neste tolv måneder?

Lenke til kommentar

Litt morsom info:

 

http://www.theinquirer.net/?article=25499

AN INTEL engineer told the audience at the Hot Chips conference earlier this week that putting two Pentium 4 cores into one package was like trying to get into trousers you wore when you were at high school.

 

En egentlig mer interessant artikkel:

http://www.theinquirer.net/?article=25496

 

Det er snakk om en VLIW/"EPIC" basert x86 prosessor - dvs x86 gjennom code morphing...

 

Personlig synes jeg det høres ut som en veldig interessant mulighet og ikke så usannsynlig. Etter hva jeg har lest i ovennevnte artikkel så sitter Intel på en svær mengde med IP og egen erfaring fra itanum jeg mener itanic prosjektet sitt. De vet ihvertfall hva som kan gå gærnt ;)

 

Som nevnt i artikkelen, det kan være pga VLIW prosessorer at Apple har byttet. Høres ihvertfall mer logisk ut enn at de vil kjøre på en prescott variant ;)

Lenke til kommentar
Varme og effekt går hånd i hånd, og er ikke noe stort problem i stua, men i bedrifter som trenger mye datakraft begynner vi å snakke om en betydelig strømregning, og det er lite som tyder på at energi blir billig fremover. Husk at for bedrifter dreier det seg ofte om maskiner som står med full load døgnet rundt, bare ta 100Xeonx0,2kWx365dagerx24timer så skjønner dere fort tegningen. Hvis du attpåtil skal ha det i bladservere snakker vi om betydelige mengder varme på et lite rom.

Jepp! Jeg synes anslaget ditt om 200W per CPU var litt lavt med tanke på at det skal gå med til å dekke varme fra spenningsregulatorer, minne, harddisker, tap i PSU'ene, et nettverk som kobler alt sammen og ikke minst: ganske mye kraft går med til AirCondition-anslegget for å fjerne varmen fra systemet. Hvis jeg skulle gjort et anslag så tror jeg at jeg hadde puttet inn 4-500W per CPU i regnestykket.

Glem heller ikke at utgifter til UPS'er langt ifra er ubetydelige i et tjenermiljø som skal stå på 24/7, så det lønner seg absolutt å drifte systemer som krever så lite strøm og kjøling som overhodet mulig. Man skal heller ikke stable mye tjenerutstyr tett sammen i et stativ før varmeproduksjon blir et betydelig problem selv i "kalde" Norge, til og med midt på vinteren faktisk.

 

Akkurat det er både stryken og svakheten til økonomi generellt. Økonomi tar kun økonomiske hensyn, ikke menneskelige hensyn, ikke rettferdighetshensyn, ikke miljøhensyn osv. For at ikke økonomien skal ødelegge samfunnet helt så har vi blandt annet arbeidsmiljølover, miljølover, miljøavgifter, konkurranselover osv. Poenget med rammene er å hindre uheldige effekter som går ut over andre enn bedriften, og som går ut over samfunnet. Så det å drive butikk handler ikke bare om å tjene mest mulig penger, men om å tjene mest mulig innen de rammene samfunnet har satt. Altså ikke noe lyssky business. Men det er klart, ikke alle klarer å holde seg innenfor rammene. Noen slipper unna mens noen blir tatt. Nå sier jeg ikke dirkete at Dell driver med snusk i norge, for det har jeg ikke noen beviser på. Men det må være lov å ha litt sunn skeptis, særlig når den frie konkurransen ikke ser ut til å fungere skikkelig. (Noe som like egoistisk tenkt som bedrifters rent økonomiske tankegang går ut over våre egne lommebøker)

Enig, det er selskaper som Halliburton, Enron, Worldcom, Dell, Intel & co. som gir bedrifter et dårlig rykte pga. deres svært grådige og uetiske forretningsmetoder. Heldigvis finnes det folk i forretningsverden som ser ting anderledes som f.eks. Donald Trump som han skriver i sin blog:

 

Corporate Corruption: If You Have to Lie, Cheat, and Steal, You're Just Not Doing it Right

The people at the forefront of these squalid affairs give business a bad name. Maybe they're greedy, maybe they're "ethically challenged," but ultimately they're incompetent. If you have to lie, cheat, and steal, you're just not doing it right. My career is a model of tough, fair dealing and fantastic success--without shortcuts, without breaking the law.

Jamfør dette med følgende sitat fra filmen "Wall Street" så skjønner du sikkert hva jeg vil frem til:

Gordon Gekko: The point is ladies and gentlemen that greed, for lack of a better word, is good. Greed is right. Greed works. Greed clarifies, cuts through and captures the essence of the evolutionary spirit. Greed, in all of it's forms - greed for life, for money, knowledge - has marked the upward surge of mankind and greed - you mark my words - will not only save Teldar Paper but that other malfunctioning corporation called the USA. Thank you.
Endret av snorreh
Lenke til kommentar

Opprett en konto eller logg inn for å kommentere

Du må være et medlem for å kunne skrive en kommentar

Opprett konto

Det er enkelt å melde seg inn for å starte en ny konto!

Start en konto

Logg inn

Har du allerede en konto? Logg inn her.

Logg inn nå
  • Hvem er aktive   0 medlemmer

    • Ingen innloggede medlemmer aktive
×
×
  • Opprett ny...