Forum » Strojna oprema » AMD + Nvidia gaming PC nasveti/izkušnje
AMD + Nvidia gaming PC nasveti/izkušnje

_koki_ ::
Doma imam neizkoriščeno mining grafično kartico Nvidia P106-100 (Nvidia GTX 1060 brez video izhodov) katero bi rad uporabil v AMD Ryzen + RX PC-ju.
Je že kdo kombiniral grafike obeh proizvajalcev v isti mašini, zanimajo me izkušnje oziroma nasveti za kaj bi lahko uporabil to neizkoriščeno grafiko brez video izhodov v kombinaciji z obstoječim Ryzen + RX sistemom ali je ta grafika praktično neuporabna?
Ali je možno kombinirat kartici različnih proizvajalcev za ML in AI??
Je že kdo kombiniral grafike obeh proizvajalcev v isti mašini, zanimajo me izkušnje oziroma nasveti za kaj bi lahko uporabil to neizkoriščeno grafiko brez video izhodov v kombinaciji z obstoječim Ryzen + RX sistemom ali je ta grafika praktično neuporabna?
Ali je možno kombinirat kartici različnih proizvajalcev za ML in AI??

pegasus ::
FluidX3D čist lepo dela z raznoraznimi grafičnimi v isti piksni hkrati.
Ampak ker verjetno ne boš poganjal CFD, poglej če ima ta grafična omogočen vsaj nvenc/nvdec. Če ima, jo lahko uporabiš za transkodiranje videa.
Ampak ker verjetno ne boš poganjal CFD, poglej če ima ta grafična omogočen vsaj nvenc/nvdec. Če ima, jo lahko uporabiš za transkodiranje videa.

tikitoki ::
Doma imam neizkoriščeno mining grafično kartico Nvidia P106-100 (Nvidia GTX 1060 brez video izhodov) katero bi rad uporabil v AMD Ryzen + RX PC-ju.
Je že kdo kombiniral grafike obeh proizvajalcev v isti mašini, zanimajo me izkušnje oziroma nasveti za kaj bi lahko uporabil to neizkoriščeno grafiko brez video izhodov v kombinaciji z obstoječim Ryzen + RX sistemom ali je ta grafika praktično neuporabna?
Ali je možno kombinirat kartici različnih proizvajalcev za ML in AI??
Spomnim se, da so imali obvode, ker je med kriptomanijo primanjkovalo GPUjev, in cene so bile visoke. Ne vem, ce se je dandanes vredno s tem ukvarjati, to ves sam zase. Najbolj priljubljen je bil uporaba izhodov na sekundarnem GPUu, lahko iGPU.
If you have a mining version of the GTX 1060 (also called a "headless" or "P106-100" card) that does not have video outputs, you can't directly connect a monitor to it. These cards are meant for computation (mining), not display. However, you can still use them for gaming or GPU-accelerated tasks if you follow these approaches:
✅ 1. Use a Second GPU With Display Outputs
Install a second GPU (like a low-end GT 710, GTX 1050, or any card with video outputs) just for display.
The mining 1060 (P106-100) runs in the background for GPU compute or rendering.
This is a common setup for users doing GPU rendering, machine learning, or mining with multiple GPUs.
✅ 2. Use a Dummy HDMI Plug
Plug in a dummy HDMI adapter into the display output of a different GPU (not your P106-100 — it has no outputs).
This tricks Windows or Linux into thinking a display is connected, allowing remote access (e.g., with Remote Desktop, VNC, or Parsec).
You can then run GPU tasks on the mining card, and stream the output remotely.
✅ 3. Force Display Output to Another GPU (Headless Render)
If you're trying to game or render on the mining card and want to capture the output:
Use software like OBS with hardware encoding and stream or record from the 1060.
Some remote desktop tools can use GPU acceleration even if the GPU has no display outputs (e.g., Moonlight + Sunshine, Parsec, or Steam Remote Play).
These setups allow gaming/rendering on the 1060 and viewing it on another PC.
✅ 4. PCIe Passthrough (Advanced)
On Linux with virtualization (like QEMU/KVM), you can pass the mining 1060 to a VM, and access it via remote desktop or Parsec.
Requires VT-d / IOMMU enabled in BIOS.
🚫 You cannot:
Directly plug a monitor into a mining GTX 1060 like the P106-100 — there are no ports.
Flash a different BIOS to get display output — the hardware lacks physical connectors.
Summary
Option Description
Use second GPU for display Most practical solution
Dummy HDMI + remote desktop Useful for headless setups
Remote streaming (Parsec) Game or render using P106-100 remotely
PCIe Passthrough Advanced, but works well in virtualized environments
Zgodovina sprememb…
- spremenilo: tikitoki ()

_Denny_ ::
Od Ryzena 7xxx dalje je situacija čisto enostavna, ker se iGPU obnaša enako kot v laptopih in podpira hybrid mode - ekran vklopiš v port na plošči, inštaliraš driverja za obe grafični, potem pa zaupaš Windowsu, da bo izbral pravo oz. za posamezne aplikacije sam izbiraš med power saving integrirano in high performance P106-100 - https://www.majorgeeks.com/content/page...
Sam sem imel tako urejeno med lansko poletno vročino z 7950X3D iGPU in 2070S in je večino časa delalo tako kot treba.
Sam sem imel tako urejeno med lansko poletno vročino z 7950X3D iGPU in 2070S in je večino časa delalo tako kot treba.
Asrock X670E Taichi, Ryzen 9 7950X3D + NH-D14, 96GB Corsair DDR5-6400 CL32
RTX 5080 16GB, 2TB Kingston KC3000, 2TB ADATA SX8200 Pro, 4TB Micron 5200
Seasonic Focus Plus 850W, Corsair Air 540, Logitech Z-2300, TCL 55C7K 144Hz
RTX 5080 16GB, 2TB Kingston KC3000, 2TB ADATA SX8200 Pro, 4TB Micron 5200
Seasonic Focus Plus 850W, Corsair Air 540, Logitech Z-2300, TCL 55C7K 144Hz

_koki_ ::
Mi je poznana zadeva v kombinaciji z integrirano grafiko, 2D na integrirani in 3D na ločeni kot v prenosnikih, mene bolj zanima kako bi se jo dalo na nek način uporabit v navezi z zmogljivo RX grafiko, da bi recimo ena delala render, druga pa bi prevzela recimo physx, DLSS, frame generation ali kaj podobnega od novejših tehnologij in na tak način razbremenila primarno grafiko?
Imamo več različnih tehnologij in vsak proizvajalec kot vsaka založba pri svojih igrah ali aplikacijah podpira več teh, če hočeš uporabljat vse bonbončke, si pa prisiljen v nakup najnovejših grafičnih kartic, pa čeprav so tudi starejše grafike sposobne vse te bonbončke uporabit, ampak potem nebi noben dal 2000+€ za novo grafiko, ker bi tudi razlika v zmogljivosti bila dosti manjša med generacijami, če bi vse kar imajo nove dobile tudi starejše...
Najbolj me zanima, če je tu kdo, ki se je spustil v to, da bi povezal grafike obeh taborov in bi delovale skupaj v tandemu za doseganje višje zmogljivosti??
Imamo več različnih tehnologij in vsak proizvajalec kot vsaka založba pri svojih igrah ali aplikacijah podpira več teh, če hočeš uporabljat vse bonbončke, si pa prisiljen v nakup najnovejših grafičnih kartic, pa čeprav so tudi starejše grafike sposobne vse te bonbončke uporabit, ampak potem nebi noben dal 2000+€ za novo grafiko, ker bi tudi razlika v zmogljivosti bila dosti manjša med generacijami, če bi vse kar imajo nove dobile tudi starejše...
Najbolj me zanima, če je tu kdo, ki se je spustil v to, da bi povezal grafike obeh taborov in bi delovale skupaj v tandemu za doseganje višje zmogljivosti??

pegasus ::
Da, tip ki je spisal FluidX3D. In je približno edini dovolj nor za kaj takega.
Moraš imeti problem take vrste, da se ga da razstaviti na več neodvisnih podproblemov, ki se jih da poganjati neodvisno na različnih procesnih enotah. Takih je relativno malo. Že tako je multithreading izziv za večino game engineov, vrzi devom še zahtevo po multi gpu? Te fentajo ... Se spomniš, včasih je obstajal SLI, kjer si sparil dve identični grafi? Še to je bil velik problem, kaj šele če so grafe različne, kaj šele če so popolnoma različne.
Moraš imeti problem take vrste, da se ga da razstaviti na več neodvisnih podproblemov, ki se jih da poganjati neodvisno na različnih procesnih enotah. Takih je relativno malo. Že tako je multithreading izziv za večino game engineov, vrzi devom še zahtevo po multi gpu? Te fentajo ... Se spomniš, včasih je obstajal SLI, kjer si sparil dve identični grafi? Še to je bil velik problem, kaj šele če so grafe različne, kaj šele če so popolnoma različne.

_koki_ ::
Predvidevam, da bi dandanes SLI oziroma Crossfire zares zaživel, ločljivosti so dosti višje kot takrat, imamo ogromno dodatnih novejših tehnologij s pomočjo ML in AI, veliko več fizike in tehnologij osvetljevanja, veliko večje prepustnosti oziroma večji prenosi podatkov in manj ozkih grl, več jederni oziroma procesorji z večimi gručami jeder,...
Nevem kje bi bil tak problem, včasih so tudi bili posebni pospeševalniki za določene zadeve ob grafiki kot samostojna kartica, če bi vsakega od teh delov prevzela svoja grafika ali čip v navezi z procesorskimi jedri ali celimi gručami jeder, vse kar se izrisuje je svoj neodvisen problem, ne samo kot pri SLI ali CF, ko se je slika razdelila na več delov in je vsaka grafična kartica izrisala svoj 1/2, 1/4 del??
Nevem kje bi bil tak problem, včasih so tudi bili posebni pospeševalniki za določene zadeve ob grafiki kot samostojna kartica, če bi vsakega od teh delov prevzela svoja grafika ali čip v navezi z procesorskimi jedri ali celimi gručami jeder, vse kar se izrisuje je svoj neodvisen problem, ne samo kot pri SLI ali CF, ko se je slika razdelila na več delov in je vsaka grafična kartica izrisala svoj 1/2, 1/4 del??
Vredno ogleda ...
Tema | Ogledi | Zadnje sporočilo | |
---|---|---|---|
Tema | Ogledi | Zadnje sporočilo | |
» | Etherum mining (rudarjenje) (strani: 1 2 3 4 … 60 61 62 63 )Oddelek: Kriptovalute in blockchain | 527311 (136042) | Jagdpanter |
» | Nvidia Volta (strani: 1 2 3 4 … 13 14 15 16 )Oddelek: Strojna oprema | 129494 (81487) | tikitoki |