No właśnie, pytam bardziej z ciekawości, bo tak często muszę używać różnych konwersji typów, że zaciekawiło mnie jaka jest to różnica dla komputera
Potoczniej mówiąc string to łańcuch znaków, a int to liczba/cyfra. Wobec tego jeżeli zmienna typu string zawiera liczbę/cyfrę, to dla czego komputer nie rozumie jej jako int (odpowiedź "bo jest stringiem" mi nic nie mówi)
Jeżeli znak != cyfra, to czym się różnią?
Trochę męcę, ale chyba niektórzy zrozumieli moje pytanie :)
Swoją drogą to przedstawia problem rozwoju, np. kalkulator i pierwiastek - otóż są ludzie nie wiedzący, że pierwiastek to tak naprawdę podniesienie do potęgi 1/2, że x^1/4 to pierwiastek czwartego stopnia, etc. W programowaniu była by to, np. różnica między poziomami języków programowania